981 resultados para Fonction propre
Resumo:
Ce mémoire explore la question des conséquences de l’interprétation rawlsienne du pluralisme éthique pour la légitimité de l’autonomie individuelle comme objectif d’éducation publique. Rawls (1993, 2003) soutient que seuls des objectifs éducatifs strictement politiques peuvent guider l’élaboration des politiques publiques en matière d’éducation obligatoire et justifier une intervention étatique dans l’éducation des enfants. Or, puisque Rawls définit l’autonomie individuelle comme un idéal éthique privé, il conclut qu’elle n’est pas un objectif légitime d’éducation publique. La thèse principale qui est défendue dans le cadre de ce mémoire est que Rawls est aveugle aux implications réelles de sa propre théorie politique en matière d’éducation commune, qui, contrairement à ce qu’il soutient, exigent précisément la promotion de l’autonomie individuelle comme idéal éthique (et non politique). Cette thèse remet en question le principe de neutralité de l’État envers toutes les doctrines éthiques, y compris l’idéal d’autonomie individuelle, qui caractérise et distingue la théorie rawlsienne des versions classiques du libéralisme. La deuxième partie de cette étude considère une stratégie possible pour sauver la neutralité du libéralisme politique, qui consiste à définir le concept d’autonomie individuelle de manière procédurale et éthiquement neutre. Ce chapitre montre que, indépendamment de la plausibilité strictement conceptuelle d’une telle caractérisation de l’autonomie individuelle, elle n’est pas appropriée au projet éducatif rawlsien, parce que celui-ci demande la valorisation de la pensée critique, et comporte donc un élément éthique incontournable. Enfin, la troisième partie de cette étude explore la problématique des moyens de promotion de l’autonomie individuelle et, plus spécifiquement, de la légitimité des écoles séparées religieuses. Elle soutient, d’un côté que l’école religieuse peut avoir une importante valeur instrumentale vis-à-vis du développement de l’autonomie individuelle, mais de l’autre côté, que l’école commune est nécessaire à un certain stade de développement.
Resumo:
Ce mémoire porte sur la variabilité observée dans un assemblage, composé à la fois d’artéfacts lithiques et céramiques, représentatif de la plus grande collection archéologique dominée par une composante du Sylvicole moyen ancien connue au Québec. Les traits caractéristiques des poteries qui ont été transportées, abandonnées, et en partie manufacturées sur la station 3-arrière du complexe de Pointe-du-Buisson, sont appréhendés à travers une acception holistique de la notion de «style», qui inclut tous les aspects des attributs qu’elle couvre, à savoir les technologiques, les morphologiques, les décoratifs et les fonctionnels. Grâce à l’application d’une méthode typologique, une approche peu utilisée depuis plusieurs décennies, du moins dans le Nord-Est américain, et dont le mérite propre réside dans sa capacité à traiter l’artéfact dans son ensemble, des schémas comportementaux (cognitifs et procéduraux) visibles sur les tessons de bord décorés ont été mis en lumière. Ces derniers sont intimement liés aux techniques décoratives employées par les potières, et semblent s’être modifiés au fil du temps de la manière suivante : type «sigillé» précédant les types plus récents «repoussé» et «basculant». Une analyse comparative, basée sur un échantillon de sites localisés dans la région de Haut-Saint-Laurent et dans celles avoisinantes, a par ailleurs souligné d’importantes similarités entre l’assemblage céramique de la composante du Sylvicole moyen ancien de BhFl-1d’ et ceux des sites de Vieux-Pont (Estrie), d’Oka (rivière des Outaouais), de Pointe-du-Gouvernement (Haut-Richelieu) et de Winooski (aux abords du Lac Champlain dans le Vermont). Ces résultats appuient l’identification d’une manifestation culturelle qui est très étroitement connectée aux phases Canoe Point et Winooski de la tradition Point Peninsula. Résultant des conclusions susmentionnées, et d’autres issues d’enquêtes récentes, des considérations d’ordre taxonomique s’ensuivent. Bien qu’une refonte complète du taxon «Sylvicole moyen» soit prématurée, une critique de ce taxon s’avère nécessaire. Aussi des taxons tels que l’Early Horticultural Period de Snow ou le «Sylvicole initial» de Wright et Clermont sont discutés, dans la mesure où ils pourraient renvoyer à une définition plus générale, mais aussi peut-être plus fidèle, des caractéristiques anthropologiques propres aux populations qui ont vécu le long du Saint-Laurent et de ses tributaires depuis le Sylvicole inférieur jusqu’à la fin du Sylvicole moyen tardif.
Resumo:
Les systèmes sensoriels encodent l’information sur notre environnement sous la forme d’impulsions électriques qui se propagent dans des réseaux de neurones. Élucider le code neuronal – les principes par lesquels l’information est représentée dans l’activité des neurones – est une question fondamentale des neurosciences. Cette thèse constituée de 3 études (E) s’intéresse à deux types de codes, la synchronisation et l’adaptation, dans les neurones du cortex visuel primaire (V1) du chat. Au niveau de V1, les neurones sont sélectifs pour des propriétés comme l’orientation des contours, la direction et la vitesse du mouvement. Chaque neurone ayant une combinaison de propriétés pour laquelle sa réponse est maximale, l’information se retrouve distribuée dans différents neurones situés dans diverses colonnes et aires corticales. Un mécanisme potentiel pour relier l’activité de neurones répondant à des items eux-mêmes reliés (e.g. deux contours appartenant au même objet) est la synchronisation de leur activité. Cependant, le type de relations potentiellement encodées par la synchronisation n’est pas entièrement clair (E1). Une autre stratégie de codage consiste en des changements transitoires des propriétés de réponse des neurones en fonction de l’environnement (adaptation). Cette plasticité est présente chez le chat adulte, les neurones de V1 changeant d’orientation préférée après exposition à une orientation non préférée. Cependant, on ignore si des neurones spatialement proches exhibent une plasticité comparable (E2). Finalement, nous avons étudié la dynamique de la relation entre synchronisation et plasticité des propriétés de réponse (E3). Résultats principaux — (E1) Nous avons montré que deux stimuli en mouvement soit convergent soit divergent élicitent plus de synchronisation entre les neurones de V1 que deux stimuli avec la même direction. La fréquence de décharge n’était en revanche pas différente en fonction du type de stimulus. Dans ce cas, la synchronisation semble coder pour la relation de cocircularité dont le mouvement convergent (centripète) et divergent (centrifuge) sont deux cas particuliers, et ainsi pourrait jouer un rôle dans l’intégration des contours. Cela indique que la synchronisation code pour une information qui n’est pas présente dans la fréquence de décharge des neurones. (E2) Après exposition à une orientation non préférée, les neurones changent d’orientation préférée dans la même direction que leurs voisins dans 75% des cas. Plusieurs propriétés de réponse des neurones de V1 dépendent de leur localisation dans la carte fonctionnelle corticale pour l’orientation. Les comportements plus diversifiés des 25% de neurones restants sont le fait de différences fonctionnelles que nous avons observé et qui suggèrent une localisation corticale particulière, les singularités, tandis que la majorité des neurones semblent situés dans les domaines d’iso-orientation. (E3) Après adaptation, les paires de neurones dont les propriétés de réponse deviennent plus similaires montrent une synchronisation accrue. Après récupération, la synchronisation retourne à son niveau initial. Par conséquent, la synchronisation semble refléter de façon dynamique la similarité des propriétés de réponse des neurones. Conclusions — Cette thèse contribue à notre connaissance des capacités d’adaptation de notre système visuel à un environnement changeant. Nous proposons également des données originales liées au rôle potentiel de la synchronisation. En particulier, la synchronisation semble capable de coder des relations entre objets similaires ou dissimilaires, suggérant l’existence d’assemblées neuronales superposées.
Resumo:
La fumée du tabac est un aérosol extrêmement complexe constitué de milliers de composés répartis entre la phase particulaire et la phase vapeur. Il a été démontré que les effets toxicologiques de cette fumée sont associés aux composés appartenant aux deux phases. Plusieurs composés biologiquement actifs ont été identifiés dans la fumée du tabac; cependant, il n’y a pas d’études démontrant la relation entre les réponses biologiques obtenues via les tests in vitro ou in vivo et les composés présents dans la fumée entière du tabac. Le but de la présente recherche est de développer des méthodes fiables et robustes de fractionnement de la fumée à l’aide de techniques de séparation analytique et de techniques de détection combinés à des essais in vitro toxicologiques. Une étude antérieure réalisée par nos collaborateurs a démontré que, suite à l’étude des produits de combustion de douze principaux composés du tabac, l’acide chlorogénique s’est avéré être le composé le plus cytotoxique selon les test in vitro du micronoyau. Ainsi, dans cette étude, une méthode par chromatographie préparative en phase liquide a été développée dans le but de fractionner les produits de combustion de l’acide chlorogénique. Les fractions des produits de combustion de l’acide chlorogénique ont ensuite été testées et les composés responsables de la toxicité de l’acide chlorogénique ont été identifiés. Le composé de la sous-fraction responsable en majeure partie de la cytoxicité a été identifié comme étant le catéchol, lequel fut confirmé par chromatographie en phase liquide/ spectrométrie de masse à temps de vol. Des études récentes ont démontré les effets toxicologiques de la fumée entière du tabac et l’implication spécifique de la phase vapeur. C’est pourquoi notre travail a ensuite été focalisé principalement à l’analyse de la fumée entière. La machine à fumer Borgwaldt RM20S® utilisée avec les chambres d’exposition cellulaire de British American Tobacco permettent l’étude in vitro de l’exposition de cellules à différentes concentrations de fumée entière du tabac. Les essais biologiques in vitro ont un degré élevé de variabilité, ainsi, il faut prendre en compte toutes les autres sources de variabilité pour évaluer avec précision la finalité toxicologique de ces essais; toutefois, la fiabilité de la génération de la fumée de la machine n’a jamais été évaluée jusqu’à maintenant. Nous avons donc déterminé la fiabilité de la génération et de la dilution (RSD entre 0,7 et 12 %) de la fumée en quantifiant la présence de deux gaz de référence (le CH4 par détection à ionisation de flamme et le CO par absorption infrarouge) et d’un composé de la phase particulaire, le solanesol (par chromatographie en phase liquide à haute performance). Ensuite, la relation entre la dose et la dilution des composés de la phase vapeur retrouvée dans la chambre d’exposition cellulaire a été caractérisée en utilisant une nouvelle technique d’extraction dite par HSSE (Headspace Stir Bar Sorptive Extraction) couplée à la chromatographie en phase liquide/ spectrométrie de masse. La répétabilité de la méthode a donné une valeur de RSD se situant entre 10 et 13 % pour cinq des composés de référence identifiés dans la phase vapeur de la fumée de cigarette. La réponse offrant la surface maximale d’aire sous la courbe a été obtenue en utilisant les conditions expérimentales suivantes : intervalle de temps d’exposition/ désorption de 10 0.5 min, température de désorption de 200°C pour 2 min et température de concentration cryogénique (cryofocussing) de -75°C. La précision de la dilution de la fumée est linéaire et est fonction de l’abondance des analytes ainsi que de la concentration (RSD de 6,2 à 17,2 %) avec des quantités de 6 à 450 ng pour les composés de référence. Ces résultats démontrent que la machine à fumer Borgwaldt RM20S® est un outil fiable pour générer et acheminer de façon répétitive et linéaire la fumée de cigarette aux cultures cellulaires in vitro. Notre approche consiste en l’élaboration d’une méthodologie permettant de travailler avec un composé unique du tabac, pouvant être appliqué à des échantillons plus complexes par la suite ; ex : la phase vapeur de la fumée de cigarette. La méthodologie ainsi développée peut potentiellement servir de méthode de standardisation pour l’évaluation d’instruments ou de l’identification de produits dans l’industrie de tabac.
Resumo:
Effet positif de la N-acétylcystéine sur la dysfonction endothéliale des artères coronaires épicardiques associée à une hypertrophie ventriculaire gauche dans un modèle porcin A. A. HORN, M-C AUBIN, YF SHI, J-C TARDIF, M. CARRIER , L. P. PERRAULT INSTITUT DE CARDIOLOGIE DE MONTRÉAL, MONTRÉAL, CANADA, Objectif : Il a été démontré dans le laboratoire que dans notre modèle d’hypertrophie ventriculaire gauche, la dysfonction endothéliale est secondaire à une diminution de la biodisponibilité du NO, celle-ci étant causée par une augmentation du stress oxydant tel que démontré par Malo et al. (2003) et Aubin et al. (2006). Le but de la présente étude est d’étudier l’effet d’un traitement chronique de la N-acétylcystéine (NAC) (un antioxydant) sur la dysfonction endothéliale associée à une hypertrophie ventriculaire gauche (HVG). Méthodologie: L’HVG a été induite par cerclage aortique (CA) chez vingt-et-un porcelets âgés de deux mois qui furent divisés aléatoirement en quatre groupes expérimentaux. Le groupe témoin (groupe 1) a été soumis à une thoracotomie antérolatérale gauche sans cerclage aortique (n=3). Le groupe 2 a été soumis à un cerclage aortique pour une période de 60 jours (n=6). Le groupe 3 a subi un cerclage aortique et a reçu un traitement oral de N-acétylcystéine de 1000 mg/jour per os pendant 60 jours commençant le jour de la chirurgie (n=6). Le groupe 4 a été soumis à un cerclage aortique et a reçu un traitement oral de N-acétylcystéine : 1000 mg/par jour pendant 30 jours commençant le jour 30 (post-chirurgie) (n=6). L’hypertrophie fut évaluée par échocardiographie. La réactivité vasculaire fut étudiée à l’aide de chambres d’organes par la construction des courbes concentration-réponse à la sérotonine (5-HT: relaxations induites par les récepteurs 5-HT1D, couplés aux protéines Gi) et à la bradykinine (BK: relaxations induites par les récepteurs B2, couplés aux protéines Gq). Les quantités de nitrites/nitrates et la production basale de GMPc ont été mesurées pour évaluer la fonction endothéliale. Le stress oxydant a été étudié en quantifiant les concentrations plasmatiques d’hydroperoxydes lipidiques et de glutathion réduit, ainsi que l’activité plasmatique des enzymes antioxydantes peroxydase du glutathion et dismutase du superoxyde. Résultats: Le rapport masse ventricule gauche/masse corporelle était significativement plus élevé pour le groupe 2 comparativement au groupe 1 (p<0,05) confirmant la présence d’une HVG. Le développement de l’HVG dans le groupe 3 a pu être prévenu par la NAC et sa progression fut atténuée dans le groupe 4 (p<0,05 versus groupe 2). La présence de la dysfonction endothéliale a été confirmée chez le groupe 2, tel qu’illustré par une diminution significative des relaxations maximales à la 5-HT et à la BK comparativement au groupe témoin. Le traitement à la NAC a significativement potentialisé les relaxations maximales (p<0,05) induites par la sérotonine et par la bradykinine, chez les deux groupes traités. Cette amélioration des relaxations dépendantes de l’endothélium peut être la conséquence d’une augmentation significative (p<0,05) de la biodisponibilité du monoxyde d’azote pour les cellules musculaires lisses, tel que suggéré par l’augmentation du ratio nitrites/nitrates et de la production basale de GMPc chez les groupes 3 et 4 comparativement au groupe 2. Cette augmentation du facteur relaxant peut résulter d’une augmentation de sa production par les cellules endothéliales ou d’une diminution de sa neutralisation par les espèces réactives oxygénées. De fait, les concentrations d’hydroperoxydes lipidiques étaient significativement inférieures (p<0,05) et associées à une augmentation des concentrations de l’antioxydant glutathion réduit et de l’activité de la peroxydase du glutathion chez les deux groupes traités par rapport au groupe 2. Conclusion: Le traitement à la NAC prévient le développement de la dysfonction endothéliale coronaire ainsi que l’HVG qui lui est associée.
Évaluation de l'impact clinique et économique du développement d'un traitement pour la schizophrénie
Resumo:
Contexte : Les stratégies pharmacologiques pour traiter la schizophrénie reçoivent une attention croissante due au développement de nouvelles pharmacothérapies plus efficaces, mieux tolérées mais plus coûteuses. La schizophrénie est une maladie chronique présentant différents états spécifiques et définis par leur sévérité. Objectifs : Ce programme de recherche vise à: 1) Évaluer les facteurs associés au risque d'être dans un état spécifique de la schizophrénie, afin de construire les fonctions de risque de la modélisation du cours naturel de la schizophrénie; 2) Développer et valider un modèle de Markov avec microsimulations de Monte-Carlo, afin de simuler l'évolution naturelle des patients qui sont nouvellement diagnostiqués pour la schizophrénie, en fonction du profil individuel des facteurs de risque; 3) Estimer le coût direct de la schizophrénie (pour les soins de santé et autres non reliés aux soins de santé) dans la perspective gouvernementale et simuler l’impact clinique et économique du développement d’un traitement dans une cohorte de patients nouvellement diagnostiqués avec la schizophrénie, suivis pendant les cinq premières années post-diagnostic. Méthode : Pour le premier objectif de ce programme de recherche, un total de 14 320 patients nouvellement diagnostiqués avec la schizophrénie ont été identifiés dans les bases de données de la RAMQ et de Med-Echo. Les six états spécifiques de la schizophrénie ont été définis : le premier épisode (FE), l'état de dépendance faible (LDS), l’état de dépendance élevée (HDS), l’état stable (Stable), l’état de bien-être (Well) et l'état de décès (Death). Pour évaluer les facteurs associés au risque de se trouver dans chacun des états spécifiques de la schizophrénie, nous avons construit 4 fonctions de risque en se basant sur l'analyse de risque proportionnel de Cox pour des risques compétitifs. Pour le deuxième objectif, nous avons élaboré et validé un modèle de Markov avec microsimulations de Monte-Carlo intégrant les six états spécifiques de la schizophrénie. Dans le modèle, chaque sujet avait ses propres probabilités de transition entre les états spécifiques de la schizophrénie. Ces probabilités ont été estimées en utilisant la méthode de la fonction d'incidence cumulée. Pour le troisième objectif, nous avons utilisé le modèle de Markov développé précédemment. Ce modèle inclut les coûts directs de soins de santé, estimés en utilisant les bases de données de la Régie de l'assurance maladie du Québec et Med-Echo, et les coûts directs autres que pour les soins de santé, estimés à partir des enquêtes et publications de Statistique Canada. Résultats : Un total de 14 320 personnes nouvellement diagnostiquées avec la schizophrénie ont été identifiées dans la cohorte à l'étude. Le suivi moyen des sujets était de 4,4 (± 2,6) ans. Parmi les facteurs associés à l’évolution de la schizophrénie, on peut énumérer l’âge, le sexe, le traitement pour la schizophrénie et les comorbidités. Après une période de cinq ans, nos résultats montrent que 41% des patients seront considérés guéris, 13% seront dans un état stable et 3,4% seront décédés. Au cours des 5 premières années après le diagnostic de schizophrénie, le coût direct moyen de soins de santé et autres que les soins de santé a été estimé à 36 701 $ canadiens (CAN) (95% CI: 36 264-37 138). Le coût des soins de santé a représenté 56,2% du coût direct, le coût de l'aide sociale 34,6% et le coût associé à l’institutionnalisation dans les établissements de soins de longue durée 9,2%. Si un nouveau traitement était disponible et offrait une augmentation de 20% de l'efficacité thérapeutique, le coût direct des soins de santé et autres que les soins de santé pourrait être réduit jusqu’à 14,2%. Conclusion : Nous avons identifié des facteurs associés à l’évolution de la schizophrénie. Le modèle de Markov que nous avons développé est le premier modèle canadien intégrant des probabilités de transition ajustées pour le profil individuel des facteurs de risque, en utilisant des données réelles. Le modèle montre une bonne validité interne et externe. Nos résultats indiquent qu’un nouveau traitement pourrait éventuellement réduire les hospitalisations et le coût associé aux établissements de soins de longue durée, augmenter les chances des patients de retourner sur le marché du travail et ainsi contribuer à la réduction du coût de l'aide sociale.
Resumo:
Dans la question 10 du livre II de son commentaire au traité De l’âme d’Aristote, Nicole Oresme soulève la question suivante : est-ce que le sens se trompe relativement à son objet propre? S’attaquant à la problématique de l’illusion sensible, il soutient qu’il y a effectivement place pour l’erreur dans la connaissance sensible puisque les facultés sensitives de l’âme ont la capacité de former des jugements. Influencé par le modèle perspectiviste de la vision, Oresme met l’accent sur le rôle des sens internes, plutôt que les sens externes, dans la perception. Ce mémoire de maîtrise a pour but d’élucider les notions de « concept » (conceptus), « jugement » (iudicium) et « discours » (discursus) telles qu’Oresme les emploie dans le deuxième livre de ses Quaestiones De anima et est accompagné d’une traduction des questions I.4, II.8-15 et II.21 des Quaestiones De anima.
Resumo:
Kabazi II est un site de plein air, situé sur la deuxième rangée des Monts de Crimée. Après sa découverte en 1986, les investigations archéologiques effectuées entre 1987 et le milieu des années 90 ont établi que Kabazi II avait auparavant servi de lieu de chasse et d’abattage pour les groupes néanderthaliens de la région. Les études archéozoologiques antérieures (Patou-Mathis 2003, 1999, 2005, 2006a, 2006b) ont déterminé que les stratégies de subsistance des Néanderthaliens du Kabazi II étaient très spécialisées et principalement axées sur la chasse des petits groupes de Equus hydruntinus mais aussi, à l’occasion, sur la chasse d’autres espèces. Ces comportements ont persisté malgré les changements climatiques et technologiques à travers l’histoire d’occupation du site. Cette étude présente l’analyse des assemblages fauniques encore inédits des niveaux II/1,II/2-1, II/2, II/3, II/4, II/5, II/7, II/8, II/9, II/13, II/13A de Kabazi II. Nos résultats sont en accord avec ceux obtenus parles d’études antérieures ; cependant, des différences par rapport à la fonction du site ont été constatées et un lien possible avec Kabazi V, un abri sur roche tout près de Kabazi II, a été établi. On croit que la persistance des activités de subsistance des Néanderthaliens de Kabazi II pendant presque 100 000 ans de présence est due à la polyvalence des ânes asiatiques tels que Equus hydruntinus, au contexte géographique et géologique de la région ainsi qu’aux caractéristiques du site elles-mêmes.
Resumo:
Il y a des indications que les nanocristaux de silicium (nc-Si) présentent un gain optique qui est potentiellement assez grand pour permettre l'amplification optique dans la gamme de longueurs d'ondes où une photoluminescence (PL) intense est mesurée (600- 1000 nm). Afin de fabriquer des cavités optiques, nous avons implantés des morceaux de silice fondue avec des ions de Si pour former une couche de nc-Si d'une épaisseur d'environ 1 μm. Le Si a été implanté à quatre énergies comprises entre 1 MeV et 1,9 MeV de manière à obtenir une concentration atomique de Si en excès variant entre 25% et 30%. Les pièces ont été flanquées de miroirs diélectriques composés de filtres interférentiels multicouches. Sur une plage de longueurs d'ondes d'environ 200 nm de large, un filtre réfléchit près de 100%, alors que l'autre a une réflexion moyenne d'environ 90%. Nous avons mesuré et comparé les spectres de PL de trois échantillons: le premier sans miroir, le second avec des filtres réfléchissant autour de 765 nm (entre 700 nm et 830 nm), et la troisième avec des filtres agissant autour de 875 nm (entre 810 nm et 940 nm). Lorsque les échantillons sont excités avec un laser pulsé à 390 nm, des mesures de photoluminescence résolue dans le temps (PLT) révèlent des taux de décroissance plus rapides en présence de miroirs dans le domaine de longueurs d'onde où ceux-ci agissent comparé aux échantillons sans miroirs. Aussi, l'intensité PL en fonction de la fluence d'excitation montre une augmentation plus rapide de la présence de miroirs, même si celle-ci reste sous-linéaire. Nous concluons que de l'émission stimulée pourrait être présente dans la cavité optique, mais sans dominer les autres mécanismes d'émission et de pertes.
Resumo:
Cette thèse décrit la synthèse, la caractérisation, les réactivités, et les propriétés physiques de complexes divalents et trivalents de Ni formés à partir de nouveaux ligands «pincer» de type POCN. Les ligands POCN de type amine sont préparés d’une façon simple et efficace via l’amination réductrice de 3-hydroxybenzaldéhyde avec NaBH4 et plusieurs amines, suivie par la phosphination de l’amino alcool résultant pour installer la fonction phosphinite (OPR2); le ligand POCN de type imine 1,3-(i-Pr)2PC6H4C(H)=N(CH2Ph) est préparé de façon similaire en faisant usage de PhCH2NH2 en l’absence de NaBH4. La réaction de ces ligands «pincer» de type POCN avec NiBr2(CH3CN)x en présence d’une base résulte en un bon rendement de la cyclométalation du lien C-H situé en ortho aux fonctions amine et phosphinite. Il fut découvert que la base est essentielle pour la propreté et le haut rendement de la formation des complexes «pincer» désirés. Nous avons préparé des complexes «pincer» plan- carrés de type POCN, (POCNRR΄)NiBr, possédant des fonctions amines secondaires et tertiaires qui démontrent des réactivités différentes selon les substituants R et R΄. Par exemple, les complexes possédant des fonctions amines tertiaires ArCH2NR2 (NR2= NMe2, NEt2, and morpholinyl) démontrent des propriétés rédox intéressantes et pourraient être convertis en leurs analogues trivalents (POCNR2)NiBr2 lorsque réagis avec Br2 ou N-bromosuccinimide (NBS). Les complexes trivalents paramagnétiques à 17 électrons adoptent une géométrie de type plan-carré déformée, les atomes de Br occupant les positions axiale et équatoriale. Les analyses «DSC» et «TGA» des ces composés ont démontré qu’ils sont thermiquement stables jusqu’à ~170 °C; tandis que la spectroscopie d’absorption en solution a démontré qu’ils se décomposent thermiquement à beaucoup plus basse température pour regénérer les complexes divalents ne possédant qu’un seul Br; l’encombrement stérique des substitutants amines accélère cette route de décomposition de façon significative. Les analogues NMe2 et N(morpholinyl) de ces espèces de NiIII sont actifs pour catalyser la réaction d’addition de Kharasch, de CX4 à des oléfines telles que le styrène, tandis qu’il fut découvert que l’analogue le moins thermiquement stable (POCNEt2)Ni est complètement inerte pour catalyser cette réaction. Les complexes (POCNRH)NiBr possédant des fonctions amines secondaires permettent l’accès à des fonctions amines substituées de façon non symétrique via leur réaction avec des halogénures d’alkyle. Un autre avantage important de ces complexes réside dans la possibilité de déprotonation pour préparer des complexes POCN de type amide. De telles tentatives pour déprotoner les fonctions NRH nous ont permis de préparer des espèces dimériques possédant des ligands amides pontants. La nature dimérique des ces complexes [P,C,N,N-(2,6-(i-Pr)2PC6H3CH2NR)Ni]2 (R= PhCH2 et Ph) fut établie par des études de diffraction des rayons-X qui ont démontré différentes géométries pour les cœurs Ni2N2 selon le substituant N : l’analogue (PhCH2)N possède une orientation syn des substitutants benzyles et un arrangement ressemblant à celui du cyclobutane du Ni et des atomes d’azote, tandis que l’analogue PhN adopte un arrangement de type diamant quasi-planaire des atomes du Ni et des atomes d’azote et une orientation anti des substituants phényles. Les espèces dimériques ne se dissocient pas en présence d’alcools, mais elles promouvoient l’alcoolyse catalytique de l’acrylonitrile. De façon intéressante, les rendements de ces réactions sont plus élevés avec les alcools possédant des fonctions O-H plus acides, avec un nombre de «turnover» catalytique pouvant atteindre 2000 dans le cas de m-cresol. Nous croyons que ces réactions d’alcoolyse procèdent par activation hétérolytique de l’alcool par l’espèce dimérique via des liaisons hydrogènes avec une ou deux des fonctions amides du dimère. Les espèces dimériques de Ni (II) s’oxydent facilement électrochimiquement et par reaction avec NBS ou Br2. De façon surprenante, l’oxydation chimique mène à l’isolation de nouveaux produits monomériques dans lesquels le centre métallique et le ligand sont oxydés. Le mécanisme d’oxydation fut aussi investigué par RMN, «UV-vis-NIR», «DFT» et spectroélectrochimie.
Resumo:
Cette thèse porte sur l’appropriation de l’Internet et du multimédias dans la population universitaire d’Afrique francophone, en l’an 2001. Elle couvre six pays : le Bénin, le Burkina Faso, le Cameroun, la Côte d’Ivoire, le Mali et le Togo. La recherche porte sur le recensement des centres de recherche démographique en Afrique francophone subsaharienne et sur une enquête auprès des universités de Yaoundé II et de Douala au Cameroun. La problématique de l’accès et de l’usage est centrale dans notre démarche. Elle est traduite dans la question de recherche suivante : « Dans un contexte dominé par les représentations des NTIC comme symboles de modernité et facteurs d’intégration à l’économie mondiale, quelles sont les modalités d’appropriation de ces technologies par les universitaires des institutions de l’enseignement et de la recherche en Afrique considérées dans cette étude ? » Pour aborder le matériel empirique, nous avons opté pour deux approches théoriques : les théories du développement en lien avec les (nouveaux) médias et la sociologie des innovations techniques. Enracinées dans la pensée des Lumières, complétée et affinée par les approches évolutionnistes inspirées de Spencer, le fonctionnalisme d’inspiration parsonienne et l’économie politique axée sur la pensée de W. W. Rostow, les théories du développement ont largement mis à contribution les théories de la communication pour atteindre leur objet. Alors que la crise de la modernité occidentale menace de délégitimer ces paradigmes, les technologies émergentes leur donnent une nouvelle naissance : dans la continuité de la pensée d’Auguste Comte, le développement est désormais pensé en termes d’intégration à un nouveau type de société, la société de l’information. Cette nouvelle promesse eschatologique et cette foi dans la technique comme facteur d’intégration à la société et à l’économie en réseau habitent tous les projets menés sur le continent, que ce soit le NEPAD, le Fond de solidarité numérique, le projet d’ordinateur à 100$ pour les enfants démunis ou le projet panafricain de desserte satellitaire, le RASCOM. Le deuxième volet de notre cadre de référence théorique est axé sur la sociologie des innovations techniques. Nous mobilisons la sociopolitique des usages de Vedel et Vitalis pour ramener la raison critique dans le débat sur le développement du continent africain, dans l’optique de montrer que la prérogative politique assumée par les États a encore sa place, si l’on veut que les ressources numériques servent à satisfaire les demandes sociales et non les seules demandes solvables essentiellement localisées dans les centres urbains. En refusant le déterminisme technique si courant dans la pensée sur le développement, nous voulons montrer que le devenir de la technique n’est pas inscrit dans son essence, comme une ombre portée, mais que l’action des humains, notamment l’action politique, peut infléchir la trajectoire des innovations techniques dans l’optique de servir les aspirations des citoyens. Sur le plan méthodologique, la démarche combine les méthodes quantitatives et les méthodes qualitatives. Les premières nous permettront de mesurer la présence d’Internet et du multimédia dans l’environnement des répondants. Les secondes nous aideront à saisir les représentations développées par les usagers au contact de ces outils. Dans la perspective socioconstructiviste, ces discours sont constitutifs des technologies, dans la mesure où ils sont autant de modalités d’appropriation, de construction sociale de l’usage. Ultimement, l’intégration du langage technique propre aux outils multimédias dans le langage quotidien des usagers traduit le dernier stade de cette appropriation. À travers cette recherche, il est apparu que les usagers sont peu nombreux à utiliser les technologies audiovisuelles dans le contexte professionnel. Quand à l’Internet et aux outils multimédias, leur présence et leurs usages restent limités, l’accès physique n’étant pas encore garanti à tous les répondants de l’étude. Internet suscite de grandes espérances, mais reste, là aussi, largement inaccessible en contexte professionnel, la majorité des usagers se rabattant sur les lieux publics comme les cybercafés pour pallier l’insuffisance des ressources au sein de leurs institutions d’appartenance. Quant aux représentations, elles restent encore largement tributaires des discours politiques et institutionnels dominants, selon lesquels l’avenir sera numérique ou ne sera pas. La thèse va cependant au-delà de ces données pour dessiner la carte numérique actuelle du continent, en intégrant dans la nouvelle donne technologique la montée fulgurante de la téléphonie cellulaire mobile. Il nous est apparu que l’Internet, dont la diffusion sur le continent a été plus que modeste, pourrait largement profiter de l’émergence sur le continent de la culture mobile, que favorise notamment la convergence entre les mini-portables et la téléphonie mobile.
Resumo:
Les violations aux droits humains causent des milliers de victimes chaque année, des mécanismes de justice sont élaborés afin de répondre à ces crimes, mais les victimes demeurent peu consultées. Par le biais d’entretiens semi-directifs, cette étude présente le point de vue et les attentes des victimes de crimes contre l’humanité du Cambodge et du Rwanda sur la justice. La justice sociale constitue le cadre théorique de cette étude. Les résultats montrent que la justice pénale est centrale à la définition de la justice. La réparation et la vérité en constituent aussi les éléments essentiels. Toutefois, la capacité des tribunaux à rendre compte de la vérité est critiquée par les répondants créant un écart entre ce qu’elles veulent et ce qu’elles obtiennent. La qualité de la prise de décision et du traitement interpersonnel favorise aussi la perception de justice du point de vue des victimes. Les différentes composantes de la justice perçues, comme la punition, la réparation et la procédure, varient toutefois en fonction du contexte social et historique de la victimisation.
Resumo:
Le facteur d'initiation de la traduction chez les eukaryotes eIF4E (4E) est un puissant oncogène en raison de sa capacité à faciliter l'export et/ou la traduction de certains transcripts, dont beaucoup sont eux-mêmes des oncogènes. 4E intéragit avec un grand nombre de protéines régulatrices dont la protéine 4E-T (pour 4E-Transporter). La capacité de 4E-T à modifier la localisation subcellulaire de 4E pourrait offrir un mécanisme permettant de modifier le potentiel oncogène d'une cellule. La surexpression de 4E-T dans des cellules d'ostéosarcome conduit à l’augmentation du nombre et de la taille des P-bodies, dans lesquels 4E colocalisent avec 4E-T mais pas avec la version tronquée 4E-T/Y30A. Cependant, les différentes expériences menées, permettant d’analyser les taux de transcription, la quantité de protéine, les profiles polysomiques ainsi que la distribution nucléo-cytoplasmique, montrent que la surexpression de 4E-T n'a pas d'effet sur la fonction de 4E. L'observation d’un enrichissement cytoplasmique et d’une charge réduite de ribosomes sur les transcripts codant les protéines cycline D1 et ODC (profile polysomique) dans la lignée 4E-T suggère un role de 4E-T dans la séquestration cytoplasmique de certains transcrips par un mécanisme qui reste encore à déterminer.
Resumo:
Parmi les blessures sportives reliées au genou, 20 % impliquent le ligament croisé antérieur (LCA). Le LCA étant le principal stabilisateur du genou, une lésion à cette structure engendre une importante instabilité articulaire influençant considérablement la fonction du genou. L’évaluation clinique actuelle des patients ayant une atteinte au LCA présente malheureusement des limitations importantes à la fois dans l’investigation de l’impact de la blessure et dans le processus diagnostic. Une évaluation biomécanique tridimensionnelle (3D) du genou pourrait s’avérer une avenue innovante afin de pallier à ces limitations. L’objectif général de la thèse est de démontrer la valeur ajoutée du domaine biomécanique dans (1) l’investigation de l’impact de la blessure sur la fonction articulaire du genou et dans (2) l’aide au diagnostic. Pour répondre aux objectifs de recherche un groupe de 29 patients ayant une rupture du LCA (ACLD) et un groupe contrôle de 15 participants sains ont pris part à une évaluation biomécanique 3D du genou lors de tâches de marche sur tapis roulant. L’évaluation des patrons biomécaniques 3D du genou a permis de démontrer que les patients ACLD adoptent un mécanisme compensatoire que nous avons intitulé pivot-shift avoidance gait. Cette adaptation biomécanique a pour objectif d’éviter de positionner le genou dans une condition susceptible de provoquer une instabilité antérolatérale du genou lors de la marche. Par la suite, une méthode de classification a été développée afin d’associer de manière automatique et objective des patrons biomécaniques 3D du genou soit au groupe ACLD ou au groupe contrôle. Pour cela, des paramètres ont été extraits des patrons biomécaniques en utilisant une décomposition en ondelettes et ont ensuite été classifiés par la méthode du plus proche voisin. Notre méthode de classification a obtenu un excellent niveau précision, de sensibilité et de spécificité atteignant respectivement 88%, 90% et 87%. Cette méthode a donc le potentiel de servir d’outil d’aide à la décision clinique. La présente thèse a démontré l’apport considérable d’une évaluation biomécanique 3D du genou dans la prise en charge orthopédique de patients présentant une rupture du LCA; plus spécifiquement dans l’investigation de l’impact de la blessure et dans l’aide au diagnostic.
Resumo:
L’approche d’apprentissage par problèmes (APP) a vu le jour, dans sa forme contemporaine, à la Faculté de médecine de l’Université MacMaster en Ontario (Canada) à la fin des années 1960. Très rapidement cette nouvelle approche pédagogique active, centrée sur l’étudiant et basée sur les problèmes biomédicaux, va être adoptée par de nombreuses facultés de médecine de par le monde et gagner d’autres disciplines. Cependant, malgré ce succès apparent, l’APP est aussi une approche controversée, notamment en éducation médicale, où elle a été accusée de favoriser un apprentissage superficiel. Par ailleurs, les étudiants formés par cette approche réussiraient moins bien que les autres aux tests évaluant l’acquisition des concepts scientifiques de base, et il n’a jamais été prouvé que les médecins formés par l’APP seraient meilleurs que les autres. Pour mieux comprendre ces résultats, la présente recherche a voulu explorer l’apprentissage de ces concepts scientifiques, en tant que processus de construction, chez des étudiants formés par l’APP, à la Faculté de médecine de l’Université de Montréal, en nous appuyant sur le cadre théorique socioconstructivisme de Vygotski. Pour cet auteur, la formation des concepts est un processus complexe de construction de sens, en plusieurs étapes, qui ne peut se concevoir que dans le cadre d’une résolution de problèmes. Nous avons réalisé une étude de cas, multicas, intrasite, les cas étant deux groupes de neuf étudiants en médecine avec leur tuteur, que nous avons suivi pendant une session complète de la mi-novembre à la mi-décembre 2007. Deux grands objectifs étaient poursuivis: premièrement, fournir des analyses détaillées et des matériaux réflectifs et théoriques susceptibles de rendre compte du phénomène de construction des concepts scientifiques de base par des étudiants en médecine dans le contexte de l’APP. Deuxièmement, explorer, les approches de travail personnel des étudiants, lors de la phase de travail individuel, afin de répondre à la question de recherche suivante : Comment la dynamique pédagogique de l’APP en médecine permet-elle de rendre compte de l’apprentissage des concepts scientifiques de base? Il s’agissait d’une étude qualitative et les données ont été recueillies par différents moyens : observation non participante et enregistrement vidéo des tutoriaux d’APP, interview semi-structuré des étudiants, discussion avec les tuteurs et consultation de leurs manuels, puis traitées par diverses opérations: transcription des enregistrements, regroupement, classification. L’analyse a porté sur des collections de verbatim issus des transcriptions, sur le suivi de la construction des concepts à travers le temps et les sessions, sur le role du tuteur pour aider au développement de ces concepts Les analyses suggèrent que l’approche d’APP est, en général, bien accueillie, et les débats sont soutenus, avec en moyenne entre trois et quatre échanges par minute. Par rapport au premier objectif, nous avons effectivement fourni des explications détaillées sur la dynamique de construction des concepts qui s'étend lors des trois phases de l'APP, à savoir la phase aller, la phase de recherche individuelle et la phase retour. Pour chaque cas étudié, nous avons mis en évidence les représentations conceptuelles initiales à la phase aller, co-constructions des étudiants, sous la guidance du tuteur et nous avons suivi la transformation de ces concepts spontanés naïfs, lors des discussions de la phase retour. Le choix du cadre théorique socio constructiviste de Vygotski nous a permis de réfléchir sur le rôle de médiation joué par les composantes du système interactif de l'APP, que nous avons considéré comme une zone proximale de développement (ZPD) au sens élargi, qui sont le problème, le tuteur, l'étudiant et ses pairs, les ressources, notamment l'artefact graphique carte conceptuelle utilisée de façon intensive lors des tutoriaux aller et retour, pour arriver à la construction des concepts scientifiques. Notre recherche a montré qu'en revenant de leurs recherches, les étudiants avaient trois genres de représentations conceptuelles: des concepts corrects, des concepts incomplets et des concepts erronés. Il faut donc que les concepts scientifiques théoriques soient à leur tour confrontés au problème concret, dans l'interaction sociale pour une validation des attributs qui les caractérisent. Dans cette interaction, le tuteur joue un rôle clé complexe de facilitateur, de médiateur, essentiellement par le langage. L'analyse thématique de ses interventions a permis d'en distinguer cinq types: la gestion du groupe, l'argumentation, les questions de différents types, le modelling et les conclusions. Nous avons montré le lien entre les questions du tuteur et le type de réponses des étudiants, pour recommander un meilleur équilibre entre les différents types de questions. Les étudiants, également par les échanges verbaux, mais aussi par la construction collective des cartes conceptuelles initiales et définitives, participent à une co-construction de ces concepts. L'analyse de leurs interactions nous a permis de relever différentes fonctions du langage, pour souligner l'intérêt des interactions argumentatives, marqueurs d'un travail collaboratif en profondeur pour la co-construction des concepts Nous avons aussi montré l'intérêt des cartes conceptuelles non seulement pour visualiser les concepts, mais aussi en tant qu'artefact, outil de médiation psychique à double fonction communicative et sémiotique. Concernant le second objectif, l’exploration du travail personnel des étudiants, on constate que les étudiants de première année font un travail plus approfondi de recherche, et utilisent plus souvent des stratégies de lecture plus efficaces que leurs collègues de deuxième année. Ceux-ci se contentent, en général, des ouvrages de référence, font de simples lectures et s’appuient beaucoup sur les résumés faits par leurs prédécesseurs. Le recours aux ouvrages de référence essentiellement comme source d'information apporte une certaine pauvreté au débat à la phase retour avec peu d'échanges de type argumentatif, témoins d'un travail profond. Ainsi donc, par tout ce soutien qu'elle permet d'apporter aux étudiants pour la construction de leurs connaissances, pour le type d'apprentissage qu'elle offre, l’APP reste une approche unique, digne d’intérêt. Cependant, elle nécessite d'être améliorée par des interventions au niveau du tuteur et des étudiants.