710 resultados para Outils préhistoriques
Resumo:
Ce mémoire explore les modalités culturelles de la participation politique de la salonnière parisienne et célèbre écrivaine Anne-Louise-Germaine Necker, baronne de Staël-Holstein (1766-1817), au cours de la Révolution française (1789-1799). Sur le plan des représentations, il souligne chez Germaine de Staël l’appropriation et la reformulation des normes de genre pour élaborer un rôle politique convenable à une femme d’esprit dans le contexte révolutionnaire. Ce rôle se fondait notamment sur une éthique de l’amitié et un idéal de vertu acquise par la sensibilité et la raison. Son projet constitutionnel, à la fois libéral et élitiste, cherchait à intégrer la contribution des femmes au processus politique à travers la sociabilité polie et la production littéraire. Sur le plan des pratiques, ce mémoire montre comment les outils de réseautage et de communication qu’étaient le salon, la correspondance et la publication fonctionnaient ensemble pour permettre à Staël de se positionner dans un espace sociopolitique et d’y déployer une action. Il considère ces forums comme des éléments constitutifs d’une culture politique révolutionnaire dont Staël sut faire un usage créatif et constructif pour promouvoir ses idées et son parti.
Resumo:
Depuis la découverte de la première protéine possédant une activité tyrosine kinase (protein tyrosine kinase [PTK]) dans les années 1980, l’importance des PTKs et de la phosphorylation sur résidu tyrosine dans la régulation des événements de signalisation intracellulaire est bien établie. Quant aux protéines qui possèdent une activité tyrosine phosphatase (protein tyrosine phosphatase [PTP]), dont l’existence n’a été dévoilée qu’une dixaine d’années plus tard, elles ont longtemps été perçues comme des enzymes dont le rôle ne se résumait qu'à contrecarrer passivement les activités des PTKs. Il est maintenant clair que les activités des PTPs sont spécifiques, hautement régulées, et qu’elles doivent être coordonnées avec celles des PTKs pour une régulation adéquate des événements de signalisation intracellulaire. En dépit de cette évidence, la contribution des PTPs à la régulation des différents processus physiologiques fondamentaux demeure encore peu caractérisée. C’est le cas, notamment, de l’angiogenèse, le processus par lequel de nouveaux vaisseaux sanguins sont formés à partir de ceux préexistants. Le VEGF (Vascular endothelial growth factor), un des facteurs angiogéniques les plus importants, est connu pour induire majoritairement ses effets biologiques via l’activation du récepteur à activité tyrosine kinase VEGFR2 (Vascular endothelial growth factor receptor 2). Puisque l’angiogenèse est impliquée dans le développement d’une multitude de pathologies, dont la progression tumorale, une meilleure caractérisation des PTPs qui assurent la qualité de la réponse angiogénique en agissant de pair avec le VEGFR2 s’avère cruciale et ce, afin de raffiner les outils thérapeutiques actuels. L’expression de la PTP DEP-1 corrèle avec la déphosphorylation du récepteur VEGFR2 localisé au niveau des jonctions cellules-cellules et contribue à l’inhibition de la prolifération des cellules endothéliales en réponse au VEGF lorsque les cellules sont à confluence. Par contre, la contribution spécifique de DEP-1 à la régulation des voies de signalisation et des réponses biologiques induites par le VEGF demeurait toujours inconnue. Les travaux de recherche présentés dans cette thèse démontrent tout d’abord que DEP-1 régule négativement l’activité tyrosine kinase de VEGFR2 en déphosphorylant spécifiquement les résidus tyrosine Y1054/Y1059 de sa boucle d’activation. Cette déphosphorylation mène par conséquent à une diminution générale de la phosphorylation du récepteur et à une atténuation de la plupart des voies de signalisation induites par le VEGF, incluant la voie mitogénique PLCγ-ERK1/2. Par ailleurs, malgré ce rôle négatif global, nos travaux révèlent étonnement, et pour la première fois, que DEP-1 contribue d’une manière positive à la promotion de la survie des cellules endothéliales via l’activation de la voie Src-Gab1-Akt en aval du récepteur VEGFR2. Ce pouvoir pro-survie de DEP-1 dans les cellules endothéliales réside avant tout dans sa capactié à déphosphoryler la tyrosine inhibitrice de Src (Y529). Au cours de notre étude, nous avons pu identifier deux résidus tyrosine au niveau de l’extrémité carboxy-terminale de DEP-1, Y1311 et Y1320, dont la phosphorylation est dépendante de Src. Nos travaux révèlent par ailleurs que ces deux résidus tyrosine phosphorylés lient le domaine SH2 de Src et que la Y1320 est principalement requise pour l’activation de Src et d’Akt en réponse au VEGF dans les cellules endothéliales. Ces résultats constituent donc une avancée majeure dans la compréhension des mécanismes moléculaires par lesquels DEP-1 peut réguler le programme angiogénique dépendant du VEGF. De plus, cette découverte d’un rôle positif pour DEP-1 dans la survie des cellules endothéliales pourrait mener à l’élaboration de nouvelles approches thérapeutiques visant à inhiber cette fonction spécifique de DEP-1 pour bloquer l'angiogenèse pathologique.
Resumo:
Le développement ainsi que l’amélioration des différentes techniques de purification sont des défis importants pour la chimie d’aujourd’hui. Certaines des méthodes actuelles, tel que le greffage d’un réactif sur un support solide permettant d’accéder à un produit pur par simple filtration du milieu, comportent toutefois certains inconvénients. En effet, les propriétés de solubilité de ces polymères rendent la mise en œuvre des réactions plus difficiles. C’est dans ce contexte que le groupe du Pr. Charette a rapporté l’utilisation de réactifs liés à un sel de tétraarylphosphonium (TAP). Ces sels peuvent être solubilisés dans un solvant tel que le dichlorométhane et aisément retirés du milieu réactionnel par précipitation à l’aide d’éther diéthylique (Chapitre 1). L’un des objectifs de cette thèse a donc été lié à la découverte de deux méthodes complémentaires qui, jusqu’à présent, sont considérées comme des méthodes de choix pour la synthèse des sels de TAP fonctionnalisés (Chapitre 2). L’une d’entre elles est utilisée par Soluphase inc., une entreprise qui commercialise ces sels de TAP. L’efficacité des sels en tant que support dans la synthèse de petites molécules a été démontrée lors de la synthèse d’un produit naturel, la (–)-coniine (Chapitre 3). L’isolement des intermédiaires synthétiques instables par simple précipitation à l’aide d’un support de TAP a permis de rendre cette synthèse plus efficace que celle déjà connue. Dans le deuxième volet de cette thèse, plusieurs problèmes reliés à la synthèse de dérivés cyclopropaniques 1,1-disubstitués ont été étudiés. Ces derniers font partie intégrale de plusieurs produits naturels et de médicaments. Cependant, leur formation par une réaction de cyclopropanation d’alcènes utilisant des réactifs diazoïques possédant deux groupements de type accepteur n’est pas tâche facile (Chapitre 4). En effet, cette réaction souffre d’un faible contrôle diastéréosélectif. Par le fait même, très peu de méthodologies de synthèse ont rapporté l’utilisation de ce type de réactifs diazoïques dans des réactions de cyclopropanation stéréosélectives. L’étude du mécanisme de la réaction de cyclopropanation catalysée au Rh(II) a proposé des indices favorisant un modèle ayant des précédents dans la littérature (Chapitre 5). Ces études nous ont mené à la découverte de la «capacité trans-directrice» du groupement amide lors des réactions de cyclopropanation d’oléfines. Nous avons donc utilisé cette propriété afin de résoudre plusieurs problèmes rencontrés dans la littérature. Nous avons montré qu’elle permet l’accès à des dérivés cyclopropaniques possédant deux groupements carboxyliques géminaux avec des sélectivités élevées (Chapitre 6). Ces produits étaient accessibles que par des séquences synthétiques nécessitant plusieurs étapes. De plus, nous avons démontrés que ces nouveaux dérivés cyclopropaniques sont des outils synthétiques fort utiles dans la synthèse de produits naturels d’intérêt biologique. Cette formidable «capacité trans-directrice» du groupement amide nous a permi de résoudre le problème de la synthèse asymétrique de dérivés carboxyliques α-cyano cyclopropaniques (Chapitre 7). De plus, ce projet nous a menées à la découverte de l’effet de divers additif achiraux permettant d’augmenter la sélectivité dans certaines réactions. Cette réaction possède une vaste étendue et l’utilité de ces nouveaux dérivés cyclopropaniques a été démontrée par plusieurs transformations de groupements fonctionnels.
Resumo:
Les technologies de l’information entraînent de profondes transformations dans nos façons d’apprendre et de socialiser ; de lire et d’écrire. Ces changements ne sont pas sans conséquence sur de nombreuses institutions, juridiques ou non. Créées au fil du temps et adaptées à une réalité qu’elles avaient internalisée, elles doivent aujourd’hui comprendre et s’adapter au changement. L’écrit est une de ces institutions. Sa place dans le droit civil est le fruit de centaines d’années de cohabitation et le droit y a vu un allié stable. Mais autrefois facilitateur, l’écrit devient obstacle alors que les technologies de l’information, affranchies du papier, sont utilisées dans des situations juridiques. Comment adapter la notion d’écrit – et celles de l’original et de la signature – alors qu’il n’est question que de données abstraites sous forme numérique ? C’est là l’objet de ce mémoire. Suite à une étude de la notion d’écrit dans le temps, de son affirmation à son bouleversement, nous étudierons les outils juridiques (traditionnels ou récents, comme les principes de neutralité technologique et d’équivalence fonctionnelle) à la disposition du droit civil pour constamment s’adapter à des situations changeantes. Enfin, dans une perspective plus pratique, nous verrons le traitement qu’ont fait divers législateurs, de l’écrit électronique. Nous terminerons par une analyse plus précise des dispositions québécoises relatives à l’écrit électronique. Les principes étudiés dans ce mémoire sont susceptibles de s’appliquer à d’autres situations similaires.
Resumo:
L'évolution des soins médicaux auprès de la population ayant une lésion médullaire (LM) s'est traduite par une amélioration du profil fonctionnel des personnes atteintes. Ainsi une proportion importante retrouve une capacité à se tenir debout et à marcher qu'il convient d'évaluer adéquatement. Si quelques outils spécifiques à la population lésée médullaire existent pour évaluer leur ambulation, aucune évaluation de l'équilibre debout n'a été validée auprès de cette clientèle. L'échelle de Berg est un outil recommandé auprès de diverses populations, entre autres celles possédant des pathologies d'origine neurologique; et le score obtenu semble lié au niveau d'autonomie à la marche ainsi qu'aux aides techniques utilisées. L'objectif de ce projet de recherche était donc d'établir la validité concomitante de l'échelle de Berg auprès de la population LM et d'explorer les liens entre le score Berg et l'aide technique utilisée. Pour ce faire, trente-deux sujets BM ASIA D ont été recrutés parmi la clientèle hospitalisée de l'Institut de réadaptation Gingras-Lindsay de Montréal. L'évaluation de l'équilibre debout a été réalisée à l'aide de l'échelle de Berg ainsi que des tests statiques, dynamiques et des limites de stabilité du Balance Master. Le Walking Index for Spinal Cord Injury (WISCI), le Spinal Cord Injury Functional Ambulation Inventory (SCI-FAI), la vitesse de marche sur 10m et le Timed up and go ont été utilisés pour évaluer l'ambulation. Des analyses descriptives et corrélatives ont été effectuées sur les données obtenues. Une corrélation forte (0.714
Resumo:
Ce travail de maîtrise a mené à la rédaction d'un article (Physical Review A 80, 062319 (2009)).
Resumo:
Les systèmes de gestion intégrée en environnement et en santé et sécurité du travail (SGI) sont un nouveau paradigme de gestion dans les organisations modernes. Ces systèmes sont construits à partir des normes ISO 14001 et d’OHSAS 18001, basées sur la prévention des risques et le principe de précaution. La littérature sur les SGI témoigne d’un marasme conceptuel prédominant depuis plus de 10 ans; elle insiste sur l’urgence d’un consensus taxinomique et conceptuel afin de définir les systèmes de gestion intégrée et de différencier le mécanisme d’intégration de celui de l’implantation. Cette lacune conceptuelle enlise les connaissances dans un fossé épistémologique, retardant ainsi le débat dans ce nouveau champ d’études. Les rares connaissances dont nous disposons dans ce domaine proviennent de quelques études théoriques et de six études empiriques, toutes préoccupées par la compatibilité des multiples systèmes et des avantages économiques de leur intégration. Les évidences engendrées par ces études sont insuffisantes pour appréhender la dynamique du nouveau paradigme dont les effets demeurent peu connus. Cette situation révèle l’urgence d’agir dans un contexte où l’utilisation des SGI se multiplie, et où leur tendance à minimiser l’importance des risques devient de plus en plus préoccupante. Aucune étude ne s’est encore penchée sur l’implantation d’un SGI en environnement et en santé et sécurité du travail construit uniquement à partir des normes ISO 14001 et d’OHSAS 18001. Cette connaissance est importante pour expliquer les effets de tels systèmes. C’est dans cette perspective que nous avons réalisé cette première étude empirique d’un SGI selon les normes ISO 14001 et d’OHSAS 18001. Nos questions de recherche portent sur le mode, le degré d’implantation, les effets du SGI, ainsi que sur les facteurs contextuels qui interviennent pour expliquer les variations dans le degré d’implantation et les effets du SGI. Il s’agit d’une recherche à prélèvement qualitatif qui repose sur un devis d’étude de cas, avec des niveaux d’analyse imbriqués, et comportant une double visée descriptive et explicative. Notre échantillon, de type raisonné, regroupait trente-cinq intervenants provenant de différentes instances hiérarchiques ; il incluait également des représentants syndicaux. Notre échantillon était composé de 7 usines, accréditées aux normes ISO 14001, OHSAS 18001, et dispersées dans différentes villes du Québec. Ces usines différaient tant par leur technologie, leur âge, leur taille, et leurs types de production. Nos données ont été recueillies en 2004; elles sont basées sur des entrevues semi dirigées, sur des observations directes lors de la visite des lieux; elles s’appuient aussi sur des consultations de documents internes et sur des outils électroniques implantés. La transcription des entrevues effectuée, le contenu des discours a été catégorisé selon les cinq dimensions du SGI: engagement, planification, mise en opération, contrôle et revue de la direction. Une condensation horizontale avait précédé l’analyse de chaque cas et l’analyse transversale des cas selon une approche à la fois inductive et déductive. Les résultats de notre recherche ont révélé deux modes d’implantation : le mode d’enrichissement et le mode de fusion. Ces modes dépendaient de la nature des structures fonctionnelles en place. La visée d’amélioration continue à la base du SGI n’avait pas réussi à concilier les approches traditionnelles bottom up et top down qui ont dominé cette implantation; son mécanisme était guidé par 4 types de stratégies : l’économie des ressources, le contrôle des forces d’influences, la stratégie des fruits faciles à cueillir et la stratégie à petits pas. Pour analyser le degré d’implantation, nous avons tenu compte de l’effort de structuration du SGI et de la force d’utilisation des processus implantés à chacune des cinq dimensions du SGI. Les résultats de notre recherche révèlent une variabilité certaine du degré d’implantation entre les usines d’une part, et entre les processus associés aux cinq dimensions du SGI d’autre part. L’analyse des discours a permis de produire cinq hypothèses qui soutiennent l’effort de structuration et la force d’utilisation du SGI: (i) l’hypothèse de la force de cohésion, (ii) l’hypothèse de la spécificité du processus, (iii) l’hypothèse de la portée du processus, (iv) l’hypothèse de la capacité organisationnelle, (v) l’hypothèse de l’acceptation du changement. L’implantation du SGI était soumise à l’influence de multiples facteurs; ils étaient de nature politique, structurelle et organisationnelle. Ces facteurs avaient agi sur le processus d’implantation en amorçant une cascade d’interactions au cours desquelles leurs forces d’influences se renforçaient, se neutralisaient ou s’additionnaient pour affecter le degré d’implantation. Les facteurs facilitant touchaient surtout l’effort de structuration ; ils incluaient : l’expérience des systèmes de gestion, l’implication de la direction, celle du syndicat ou du CSS, la structure organisationnelle, le niveau d’éducation, l’âge et la taille de l’usine. Quant aux facteurs contraignants, ils agissaient sur la force d’utilisation ; ils incluaient : la lourdeur procédurale, le manque de temps, le manque de formation, le manque de ressources, la culture organisationnelle, la structure organisationnelle, le fossé intergénérationnel, l’absence du syndicat et l’âge de l’usine. Trois effets proximaux escomptés par l’entreprise ont été observés. (i) La rigueur de la gestion était associée à l’application des exigences du SGI; elle touchait la gouvernance en environnement et en santé et sécurité du travail, les mécanismes de gestion et les procédés de production. (ii) La standardisation était reliée au mode d’implantation du SGI; elle concernait les pratiques, les outils, les méthodes de travail et l’organisation des ressources. (iii) La rupture des silos est un effet relié au mode d’implantation du SGI; elle touchait les structures départementales, les frontières professionnelles, les relations et climat de travail. Ces effets proximaux avaient provoqué plusieurs effets émergents, plus distaux: une augmentation du pouvoir de contrôle syndical, un renforcement de la légitimité des recommandations soumises par les spécialistes professionnels, la création de réseaux inter organisationnels et le transfert du savoir. L’implantation du SGI avait transformé la gouvernance et les pratiques en environnement et en santé et sécurité du travail dans les sept usines. Toutefois, elle ne semblait pas garantir l’immunité du processus de gestion des risques à l’environnement ni à la santé et sécurité du travail. Sa capacité à diluer les risques devait retenir l’attention des politiques de santé publiques et des programmes de prévention des risques à l’environnement et à la santé et sécurité du travail. L’amélioration de la gestion des risques demeurait un effet attendu non observé et soumis à des facteurs contextuels qui pourraient l’empêcher de se concrétiser. À cet égard, le transfert du savoir, renforcé par l’émergence des réseaux inter organisationnels, semblait offrir une avenue beaucoup plus prometteuse et accessible. C’est l’une des contributions de cette recherche. Elle a aussi (i) proposé une typologie des modes d’implantation et des effets du SGI (ii) préconisé une méthode détaillée d’une meilleure appréciation du degré d’implantation (iii) précisé le rôle des facteurs contextuels dans l’explication des variations du degré d’implantation et dans la production des effets, (iv) proposé des hypothèses sur la structuration et l’utilisation du SGI (v) offert une perspective plurielle et approfondie de la dynamique de l’implantation du SGI grâce à la variété de l’échantillon des répondants et des usines. Il s’agit de la première étude de terrain dans le domaine. À notre connaissance, aucune autre étude n’a eu de tels résultats. Mots Clés : ISO 14001, OHSAS 18001, gestion intégrée, environnement, santé et sécurité du travail, risques environnementaux, risques en santé et sécurité du travail, analyse d’implantation, degré d’implantation, SGI, transfert du savoir.
Resumo:
Introduction : Les résultats de recherches ont démontré que la cessation tabagique augmente là où des interventions professionnelles préventives sont appliquées avec constance. On rapporte qu’au Québec, 62 % des infirmières (toutes pratiques confondues) évaluent le statut tabagique de leurs clients et 38 % suggèrent la cessation tabagique. En milieu hospitalier, l’évaluation du statut tabagique diminue à 30 %. Or, le personnel infirmier hospitalier est présent dans les unités de soins 24 heures sur 24, ce qui laisse prévoir une influence potentielle non négligeable dans la décision des patients de cesser de fumer. Objectif : La présente recherche a pour objectif de comparer, avec un groupe contrôle, l’efficacité de stratégies (formation interactive, rappel, multiple) pour augmenter les interventions réalisées en cessation tabagique dans des unités de médecine et de chirurgie. Le choix de ces stratégies repose sur leur efficacité et leur potentiel d’implantation dans d’autres centres. Méthodologie : Un devis expérimental avec randomisation par groupe a été choisi. Le modèle factoriel permet d’évaluer l’effet de chacun des groupes expérimentaux en regard du groupe contrôle. Des mesures préstratégies et poststratégies (à 1 mois et à 3 mois) sont privilégiées. Plusieurs outils permettent de mesurer les effets des stratégies et ce, avec des sources diversifiées (personnel infirmier, patients, dossiers des patients, gestionnaires et responsables des centres d’abandon du tabac). Résultats : Au total, 156 infirmières et infirmières-auxiliaires ont répondu à des questionnaires au temps 1, 78 au temps 2 et 69 au temps 3. Parallèlement au personnel infirmier, 156 patients ont été rejoints au temps 1, 89 au temps 2 et 98 au temps 3. Les résultats démontrent que le personnel infirmier évalue le statut tabagique chez 35,7 % de la clientèle seulement et la motivation à cesser de fumer chez 17,6 % des patients. Au cours de notre recherche, peu d’interventions en cessation tabagique ont été réalisées dans les unités de médecine et de chirurgie; la présence de plusieurs obstacles de même qu’une perception d’inefficacité des interventions de la part du personnel infirmier semblent en être les causes. Les résultats de notre recherche ne nous a pas permis d’appuyer nos hypothèses. Cependant, des analyses complémentaires ont démontré que la stratégie de formation interactive a permis d’augmenter certaines pratiques cliniques à court terme et de diminuer la perception d’obstacles à l’intervention. Le rappel n’a pas fonctionné correctement et n’a pu être évalué. Conclusion : En considérant les résultats modestes des stratégies implantées, la formation interactive a eu un impact à très court terme sur les interventions courtes en cessation tabagique réalisées par le personnel infirmier d’unités de soins en médecine et en chirurgie. Les difficultés rencontrées lors de l’implantation des stratégies ont été expliquées, ce qui permettra une planification plus éclairée de futures recherches dans le domaine.
Resumo:
La responsabilité sociale des entreprises (RSE) est un concept qui fait référence au volontariat, sans définition unique, et visant la prise en compte des intérêts des parties prenantes de l’entreprise. Pour celle-ci, les caractéristiques communes à ces différentes définitions est d’établir des balises allant au-delà de ce que la loi fixe comme règle. Pour mettre en oeuvre la RSE, plusieurs outils sont utilisés, le code de conduite étant le plus répandu. Quant aux multiples parties prenantes de l’organisation, celle des travailleurs ne semble pas invitée à participer aux décisions de l’entreprise en matière de RSE, malgré les intérêts importants que les travailleurs et le syndicat peuvent posséder auprès de cette dernière. Notre recherche porte sur la convention collective en tant qu’outil de responsabilité sociale des entreprises. Nous nous intéressons à savoir si cet outil traditionnel en relations du travail pourrait être utilisé, tout comme un code de conduite, pour stimuler la participation des syndicale aux décisions de l’entreprise. À l’aide du Portrait statistique des conventions collectives analysées au Québec en 2006, nous avons validé la fréquence, le sujet ainsi que le niveau de participation syndicale dans les comités conjoints conventionnés en comparant les entreprises dites RSE et non RSE. Il s’est avéré qu’il n’y a pas plus de participation syndicale indiquée dans les conventions collectives d’entreprises RSE que dans celles non RSE. Cependant, notre analyse précise que deux outils RSE autres que le code de conduite adoptés par l’entreprise coïncident avec la participation syndicale, soit la signature d’un accord-cadre international et la participation au Pacte Mondial de l’ONU.
Resumo:
Depuis la rentrée scolaire de septembre 2002, les écoles primaires québécoises doivent composer avec une nouvelle organisation des programmes ainsi qu’avec de nouveaux contenus. Au premier cycle, en univers social, la compétence visée est « Construire sa représentation de l’espace, du temps et de la société » (MEQ, 2001). Or, nous savons que, pour bâtir un enseignement qui a pour but de guider un individu dans la construction de sa représentation, il est nécessaire d’avoir conscience de ses représentations initiales de l’objet. Mais, quelles sont les représentations du temps des élèves de maternelle et de premier cycle du primaire au Québec? C’est la question que nous nous posons dans cette thèse. Pour y répondre, nous avons cherché à circonscrire le temps dont il est question en proposant une réflexion théorique sur son essence et en analysant les sens qu’il prend dans le programme. Puis, nous avons mis en place une méthodologie et les outils lui étant nécessaires pour dégager les dimensions de représentations présentes dans les discours de 164 sujets de maternelle, de première et de deuxième année, répartis sur 13 classes d’écoles de la grande région montréalaise. À l’issue de cette recherche, nous pouvons proposer aux chercheurs et aux enseignants une nouvelle liste de dimensions de représentations du temps adaptée au contexte québécois actuel. Cette liste nous permet de dépeindre le paysage des représentations du temps des élèves des classes que nous avons visitées. Enfin, riche de nos résultats, nous pouvons émettre quelques remarques et principes pour l’enseignement du temps en classe.
Resumo:
Ce mémoire traite de la construction d’un espace social citoyen à partir de l’analyse du travail d’intervention de deux organismes locaux situés à Trou du Nord (Haïti). Il s’agit d’explorer les manières dont les membres se représentent et s’approprient leur statut de citoyen. Pour mettre l’emphase sur les mécanismes associatifs et sociaux qui interviennent dans la construction de ce que nous nommons "espace social citoyen", nous avons mené une recherche qualitative dont la charpente interprétative est conçue avec l’aide des outils théorico-pratiques de la politique de participation (Barber, 1997) et l’intervention sociale collective (Lamoureux, 1991). Nous avançons l’hypothèse centrale que les pratiques associatives sont le vecteur de la construction d’un espace social citoyen à Trou du Nord. Cette hypothèse centrale est soutenue par deux hypothèses opératoires portant sur les conditions d’exercice de citoyenneté et l’affirmation individuelle de l’appartenance des membres à l’espace commun. Nous avons recueilli quatorze entretiens semi-directifs effectués avec les membres de l’Assemblée Populaire Veye Yo Trou du Nord (APVT) et du Rassemblement des Militants Solidaires de Trou du Nord (RAMSO). Les résultats de la recherche indiquent que les membres de ces deux organisations manifestent une grande volonté de contribuer au développement de leur localité et au «mieux-être» de la population. Leur implication directe dans les affaires politiques et sociales s’accompagne des exigences pour que l’État prenne en charge ses responsabilités vis-à-vis de ses citoyens. Cette liberté d’action repose sur le partage de leurs expériences individuelles et sur une grande connaissance des divers aspects des réalités locales auxquelles sont confrontés quotidiennement les citoyens. Ces deux groupes sont conçus comme des espaces de sociabilité, des lieux publics et dynamiques issus de l’activité commune et des divers types d’interactions au niveau local. Toujours d’après l’analyse, les membres de ces deux groupes interviennent sur un problème d’ensemble collectif au niveau local sans pour autant négliger leurs propres intérêts. Ils s’inscrivent dans le jeu de marchandage électoral et apprennent à leurs membres à se comporter comme une communauté d’intérêts et d’actions, elle-même inscrite dans l’ensemble des interactions, des processus et des dynamiques de résolution des problèmes au niveau local. Un tel constat vient à la fois valider certaines de nos hypothèses tout en révélant les limites de l’idée de la construction d’un espace social citoyen. D’une part, la volonté de contribuer au «mieux-être» de la population, la nécessité de prendre la parole, d’exprimer les problèmes collectifs et individuels, le souci d’avoir un contrôle sur l’action des dirigeants élus sont autant d’enjeux qui leur ont permis de passer de leur vécu particulier à une vision plus large des intérêts collectifs et à la définition des tâches qu’ils estiment correspondre au rôle citoyen qui leur incombe. D’autre part, leur positionnement dans le champ politique notamment au moment des élections les fait apparaître comme des groupes partisans, c'est-à-dire qu’ils ne sont pas toujours dans la construction de l’intérêt général. Nous concluons que ce double aspect s’avère nécessaire aussi bien à la construction de l’espace social citoyen qu’au fonctionnement démocratique au niveau local. Car, en plus de se définir comme citoyens et d’affirmer leur appartenance communautaire, les membres développent les capacités critiques face aux gestes et actes posés autant par les dirigeants locaux que par l’État haïtien lui-même. Ils acquièrent aussi les habilités de participer, même dans les interstices, aux jeux sociopolitiques faisant partie du processus de renforcement de la citoyenneté et d’un système démocratique en construction.
Resumo:
La présente recherche a pour but de faire le point sur l'état du droit canadien et sur ses perspectives futures en relation avec les œuvres créées par ordinateurs. L'outil terminologique choisi pour notre objectif est le logiciel de traduction automatique multilingue qui, à cause de sa complexité, s'éloigne le plus du programmeur « créateur» et se rapproche le plus d'œuvres qui ne peuvent être directement attribuées aux linguistes et programmeurs. Ces outils et leurs créations seront d'après nous les prochains outils technologiques à confronter le droit. En effet, dans un avenir prévisible, considérant l'évolution technologique, ces logiciels produiront des textes qui bénéficieront d'une valeur commerciale ajoutée et c'est alors que certains feront valoir leurs « droits », non seulement sur les textes mais aussi sur la technologie. Pour atteindre cet objectif, nous débuterons par un retour historique sur la technologie et ses origines. Par la suite, nous ferons une analyse de la protection actuelle accordée aux logiciels, aux banques de données et aux traductions qu'ils produisent. Nous déterminerons ensuite qui sera responsable des textes produits en relation avec le texte d'origine et avec sa résultante au niveau du droit d'auteur et de celui de la responsabilité civile. Cette recherche nous amènera à conclure que le droit actuel est « mésadapté » tant à l'égard de la protection qu'au niveau de la responsabilité. Ces conclusions devront d'après nous imposer un retour aux principes fondamentaux du droit. Ce fondamentalisme légal sera pour nous le prix à payer pour la légitimité. En effet, plus particulièrement concernant le droit d'auteur, nous conclurons qu'il devra cesser d'être le « fourre-tout» du droit de la propriété intellectuelle et redevenir ce qu'il doit être: un droit qui protège la créativité. Cette démarche prospective tirera ses racines du fait que nous serons obligés de conclure que les juristes canadiens ont refusé, à tort à notre point de vue, de renvoyer au monde des brevets les méthodes et procédés nouveaux et inventifs, ce qui donc a introduit des problématiques inutiles qui exacerbent l'incertitude. Finalement, notre cheminement nous dirigera vers le droit de la responsabilité où nous soutiendrons que le fournisseur ne peut actuellement être responsable du texte produit puisqu'il ne participe pas directement aux choix et ne porte pas atteinte au contenu. Voici donc en quelques mots le cœur de notre recherche qui entrouvre une boîte de Pandore.
Resumo:
La construction d'un quotient, en topologie, est relativement simple; si $G$ est un groupe topologique agissant sur un espace topologique $X$, on peut considérer l'application naturelle de $X$ dans $X/G$, l'espace d'orbites muni de la topologie quotient. En géométrie algébrique, malheureusement, il n'est généralement pas possible de munir l'espace d'orbites d'une structure de variété. Dans le cas de l'action d'un groupe linéairement réductif $G$ sur une variété projective $X$, la théorie géométrique des invariants nous permet toutefois de construire un morphisme de variété d'un ouvert $U$ de $X$ vers une variété projective $X//U$, se rapprochant autant que possible d'une application quotient, au sens topologique du terme. Considérons par exemple $X\subseteq P^{n}$, une $k$-variété projective sur laquelle agit un groupe linéairement réductif $G$ et supposons que cette action soit induite par une action linéaire de $G$ sur $A^{n+1}$. Soit $\widehat{X}\subseteq A^{n+1}$, le cône affine au dessus de $\X$. Par un théorème de la théorie classique des invariants, il existe alors des invariants homogènes $f_{1},...,f_{r}\in C[\widehat{X}]^{G}$ tels que $$C[\widehat{X}]^{G}= C[f_{1},...,f_{r}].$$ On appellera le nilcone, que l'on notera $N$, la sous-variété de $\X$ définie par le locus des invariants $f_{1},...,f_{r}$. Soit $Proj(C[\widehat{X}]^{G})$, le spectre projectif de l'anneau des invariants. L'application rationnelle $$\pi:X\dashrightarrow Proj(C[f_{1},...,f_{r}])$$ induite par l'inclusion de $C[\widehat{X}]^{G}$ dans $C[\widehat{X}]$ est alors surjective, constante sur les orbites et sépare les orbites autant qu'il est possible de le faire; plus précisément, chaque fibre contient exactement une orbite fermée. Pour obtenir une application régulière satisfaisant les mêmes propriétés, il est nécessaire de jeter les points du nilcone. On obtient alors l'application quotient $$\pi:X\backslash N\rightarrow Proj(C[f_{1},...,f_{r}]).$$ Le critère de Hilbert-Mumford, dû à Hilbert et repris par Mumford près d'un demi-siècle plus tard, permet de décrire $N$ sans connaître les $f_{1},...,f_{r}$. Ce critère est d'autant plus utile que les générateurs de l'anneau des invariants ne sont connus que dans certains cas particuliers. Malgré les applications concrètes de ce théorème en géométrie algébrique classique, les démonstrations que l'on en trouve dans la littérature sont généralement données dans le cadre peu accessible des schémas. L'objectif de ce mémoire sera, entre autres, de donner une démonstration de ce critère en utilisant autant que possible les outils de la géométrie algébrique classique et de l'algèbre commutative. La version que nous démontrerons est un peu plus générale que la version originale de Hilbert \cite{hilbert} et se retrouve, par exemple, dans \cite{kempf}. Notre preuve est valide sur $C$ mais pourrait être généralisée à un corps $k$ de caractéristique nulle, pas nécessairement algébriquement clos. Dans la seconde partie de ce mémoire, nous étudierons la relation entre la construction précédente et celle obtenue en incluant les covariants en plus des invariants. Nous démontrerons dans ce cas un critère analogue au critère de Hilbert-Mumford (Théorème 6.3.2). C'est un théorème de Brion pour lequel nous donnerons une version un peu plus générale. Cette version, de même qu'une preuve simplifiée d'un théorème de Grosshans (Théorème 6.1.7), sont les éléments de ce mémoire que l'on ne retrouve pas dans la littérature.
Resumo:
Le rôle important joué par la mitochondrie dans la cellule eucaryote est admis depuis longtemps. Cependant, la composition exacte des mitochondries, ainsi que les processus biologiques qui sy déroulent restent encore largement inconnus. Deux facteurs principaux permettent dexpliquer pourquoi létude des mitochondries progresse si lentement : le manque defficacité des méthodes didentification des protéines mitochondriales et le manque de précision dans lannotation de ces protéines. En conséquence, nous avons développé un nouvel outil informatique, YimLoc, qui permet de prédire avec succès les protéines mitochondriales à partir des séquences génomiques. Cet outil intègre plusieurs indicateurs existants, et sa performance est supérieure à celle des indicateurs considérés individuellement. Nous avons analysé environ 60 génomes fongiques avec YimLoc afin de lever la controverse concernant la localisation de la bêta-oxydation dans ces organismes. Contrairement à ce qui était généralement admis, nos résultats montrent que la plupart des groupes de Fungi possèdent une bêta-oxydation mitochondriale. Ce travail met également en évidence la diversité des processus de bêta-oxydation chez les champignons, en corrélation avec leur utilisation des acides gras comme source dénergie et de carbone. De plus, nous avons étudié le composant clef de la voie de bêta-oxydation mitochondriale, lacyl-CoA déshydrogénase (ACAD), dans 250 espèces, couvrant les 3 domaines de la vie, en combinant la prédiction de la localisation subcellulaire avec la classification en sous-familles et linférence phylogénétique. Notre étude suggère que les gènes ACAD font partie dune ancienne famille qui a adopté des stratégies évolutionnaires innovatrices afin de générer un large ensemble denzymes susceptibles dutiliser la plupart des acides gras et des acides aminés. Finalement, afin de permettre la prédiction de protéines mitochondriales à partir de données autres que les séquences génomiques, nous avons développé le logiciel TESTLoc qui utilise comme données des Expressed Sequence Tags (ESTs). La performance de TESTLoc est significativement supérieure à celle de tout autre outil de prédiction connu. En plus de fournir deux nouveaux outils de prédiction de la localisation subcellulaire utilisant différents types de données, nos travaux démontrent comment lassociation de la prédiction de la localisation subcellulaire à dautres méthodes danalyse in silico permet daméliorer la connaissance des protéines mitochondriales. De plus, ces travaux proposent des hypothèses claires et faciles à vérifier par des expériences, ce qui présente un grand potentiel pour faire progresser nos connaissances des métabolismes mitochondriaux.
Resumo:
Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau.