480 resultados para Règlement en ligne des conflits
Resumo:
En février, 2009 un rapport de PHRMA (Pharmaceutical Research and Manufacturers of America) confirmait que plus de 300 médicaments pour le traitement des maladies cardiaques étaient en phase d’essais cliniques ou en révision par les agences règlementaires. Malgré cette abondance de nouvelles thérapies cardiovasculaires, le nombre de nouveaux médicaments approuvés chaque année (toutes indications confondues) est en déclin avec seulement 17 et 24 nouveaux médicaments approuvés en 2007 et 2008, respectivement. Seulement 1 médicament sur 5000 sera approuvé après 10 à 15 ans de développement au coût moyen de 800 millions $. De nombreuses initiatives ont été lancées par les agences règlementaires afin d’augmenter le taux de succès lors du développement des nouveaux médicaments mais les résultats tardent. Cette stagnation est attribuée au manque d’efficacité du nouveau médicament dans bien des cas mais les évaluations d’innocuité remportent la palme des causes d’arrêt de développement. Primum non nocere, la maxime d’Hippocrate, père de la médecine, demeure d’actualité en développement préclinique et clinique des médicaments. Environ 3% des médicaments approuvés au cours des 20 dernières années ont, par la suite, été retirés du marché suite à l’identification d’effets adverses. Les effets adverses cardiovasculaires représentent la plus fréquente cause d’arrêt de développement ou de retrait de médicament (27%) suivi par les effets sur le système nerveux. Après avoir défini le contexte des évaluations de pharmacologie de sécurité et l’utilisation des bio-marqueurs, nous avons validé des modèles d’évaluation de l’innocuité des nouveaux médicaments sur les systèmes cardiovasculaires, respiratoires et nerveux. Évoluant parmi les contraintes et les défis des programmes de développements des médicaments, nous avons évalué l’efficacité et l’innocuité de l’oxytocine (OT), un peptide endogène à des fins thérapeutiques. L’OT, une hormone historiquement associée à la reproduction, a démontré la capacité d’induire la différentiation in vitro de lignées cellulaires (P19) mais aussi de cellules souches embryonnaires en cardiomyocytes battants. Ces observations nous ont amené à considérer l’utilisation de l’OT dans le traitement de l’infarctus du myocarde. Afin d’arriver à cet objectif ultime, nous avons d’abord évalué la pharmacocinétique de l’OT dans un modèle de rat anesthésié. Ces études ont mis en évidence des caractéristiques uniques de l’OT dont une courte demi-vie et un profil pharmacocinétique non-linéaire en relation avec la dose administrée. Ensuite, nous avons évalué les effets cardiovasculaires de l’OT sur des animaux sains de différentes espèces. En recherche préclinique, l’utilisation de plusieurs espèces ainsi que de différents états (conscients et anesthésiés) est reconnue comme étant une des meilleures approches afin d’accroître la valeur prédictive des résultats obtenus chez les animaux à la réponse chez l’humain. Des modèles de rats anesthésiés et éveillés, de chiens anesthésiés et éveillés et de singes éveillés avec suivi cardiovasculaire par télémétrie ont été utilisés. L’OT s’est avéré être un agent ayant d’importants effets hémodynamiques présentant une réponse variable selon l’état (anesthésié ou éveillé), la dose, le mode d’administration (bolus ou infusion) et l’espèce utilisée. Ces études nous ont permis d’établir les doses et régimes de traitement n’ayant pas d’effets cardiovasculaires adverses et pouvant être utilisées dans le cadre des études d’efficacité subséquentes. Un modèle porcin d’infarctus du myocarde avec reperfusion a été utilisé afin d’évaluer les effets de l’OT dans le traitement de l’infarctus du myocarde. Dans le cadre d’un projet pilote, l’infusion continue d’OT initiée immédiatement au moment de la reperfusion coronarienne a induit des effets cardiovasculaires adverses chez tous les animaux traités incluant une réduction de la fraction de raccourcissement ventriculaire gauche et une aggravation de la cardiomyopathie dilatée suite à l’infarctus. Considérant ces observations, l’approche thérapeutique fût révisée afin d’éviter le traitement pendant la période d’inflammation aigüe considérée maximale autour du 3ième jour suite à l’ischémie. Lorsqu’initié 8 jours après l’ischémie myocardique, l’infusion d’OT a engendré des effets adverses chez les animaux ayant des niveaux endogènes d’OT élevés. Par ailleurs, aucun effet adverse (amélioration non-significative) ne fût observé chez les animaux ayant un faible niveau endogène d’OT. Chez les animaux du groupe placebo, une tendance à observer une meilleure récupération chez ceux ayant des niveaux endogènes initiaux élevés fût notée. Bien que la taille de la zone ischémique à risque soit comparable à celle rencontrée chez les patients atteints d’infarctus, l’utilisation d’animaux juvéniles et l’absence de maladies coronariennes sont des limitations importantes du modèle porcin utilisé. Le potentiel de l’OT pour le traitement de l’infarctus du myocarde demeure mais nos résultats suggèrent qu’une administration systémique à titre de thérapie de remplacement de l’OT devrait être considérée en fonction du niveau endogène. De plus amples évaluations de la sécurité du traitement avec l’OT dans des modèles animaux d’infarctus du myocarde seront nécessaires avant de considérer l’utilisation d’OT dans une population de patients atteint d’un infarctus du myocarde. En contre partie, les niveaux endogènes d’OT pourraient posséder une valeur pronostique et des études cliniques à cet égard pourraient être d’intérêt.
Resumo:
L’appréciation de la puissance cancérogène des fibres d’amiante chrysotile repose en grande partie sur des jugements subjectifs et incertains des experts et des analystes en raison des résultats hétérogènes et équivoques d’études épidémiologiques et toxicologiques sérieuses. L’approche probabiliste bayésienne en évaluation de risques peut formaliser l’impact des jugements subjectifs et de leurs incertitudes sur les estimations de risques, mais elle est encore peu utilisée en santé publique. Le présent travail examine la possibilité d’appliquer l’approche bayésienne dans une récente élicitation d’opinions d’experts pour estimer la toxicité du chrysotile, le degré de consensus et de divergence, ainsi que les niveaux d’incertitude des experts. Les estimations des experts concordaient assez bien sur la différence de toxicité entre chrysotile et amphiboles pour les mésothéliomes. Pour le cancer du poumon, les évaluations probabilistes étaient bien plus disparates. Dans ce cas, les jugements des experts semblaient influencés à différents degrés par des biais heuristiques, surtout les heuristiques d’affect et d’ancrage liés à la controverse du sujet et à l’hétérogénéité des données. Une méthodologie rigoureuse de préparation des experts à l’exercice d’élicitation aurait pu réduire l’impact des biais et des heuristiques sur le panel.
Resumo:
L’autorisation de recourir à la force est une pratique par laquelle le Conseil de sécurité permet à des États membres des Nations Unies ou à des accords ou organismes régionaux, voire au Secrétaire général des Nations Unies de recourir à la coercition militaire. Elle est l’une des circonstances excluant l’illicéité face à l’interdiction de recourir à la force dans les relations internationales dont la règle est posée à l’article 2,§ 4 de la Charte des Nations Unies. Il est évident que cette pratique ne correspond pas clairement à la lettre de la Charte mais elle tire sa légitimité du fait qu’elle permet au Conseil de sécurité de s’acquitter de sa mission principale de maintien de la paix et de la sécurité internationales, étant donné que le système de coercition militaire prévu par la Charte s’avère inapplicable dans la pratique. Il reste que cette pratique est empreinte d’ambiguïté : elle apparaît tantôt comme une intervention des Nations Unies, tantôt comme une action unilatérale au profit de certaines puissances capables de mener des opérations de grande envergure. Cette ambiguïté est encore exacerbée par le problème de l’autorisation présumée que certainsÉtats pourraient déduire des actes du Conseil de sécurité, pour intervenir dans divers conflits. Dans les faits, la pratique de l’autorisation de recourir à la force semble actualiser une tendance belliciste qui caractérisait les époques antérieures. Elle peut, si l’on n’y prend garde, refondre, par pans entiers, les legs du droit contre la guerre (jus contra bellum) issu du XXème siècle, droit qui a été le fruit de longues tribulations dans l’histoire des relations internationales. Le danger le plus grave est que des acquis chèrement négociés risquent d’être jetés par-dessus bord avec trop de facilité et sans délai, pour servir des visées à court terme.
Resumo:
De nouveaux modèles d'atmosphère sont présentés, incluant les profils de raie d'hélium neutre améliorés de Beauchamp (1995) et le formalisme de probabilité d'occupation pour ce même atome. Ces modèles sont utilisés pour calculer une grille de spectres synthétiques correspondant à des atmosphères riches en hélium et contenant des traces d'hydrogène. Cette grille est utilisée pour déterminer les paramètres atmosphériques principaux des étoiles de notre échantillon, soient la température effective, la gravité de surface et l'abondance d'hydrogène. Notre échantillon contient des spectres visibles de haut rapport signal-sur-bruit pour 102 naines blanches riches en hélium, dont 29 ont été observés au cours de ce projet, ce qui en fait le plus grand échantillon de spectres de qualité de naines blanches riches en hélium. Des spectres synthétiques ont été calculés en utilisant différentes valeurs du paramètre α de la théorie de la longueur de mélange dans le but de calibrer empiriquement la valeur de ce paramètre pour les DB. Afin d'améliorer la précision sur les paramètres atmosphériques de quelques étoiles, nous avons utilisé des spectres couvrant la raie Hα pour mieux déterminer l'abondance d'hydrogène. Finalement, nous avons calculé la distribution de masse de notre échantillon et la fonction de luminosité des DB. La distribution de masse montre une coupure à 0.5 fois la masse solaire qui est prédite par les modèles d'évolution stellaire et dévoile une masse moyenne significativement plus élevée pour les étoiles de type DBA. La masse moyenne de l'ensemble des DB et DBA est très proche de celle des DA. La fonction de luminosité nous permet de calculer que le rapport du nombre de DB sur le nombre de DA vaut environ 25%.
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
Objectif: La santé des Indiens inscrits est inférieure à celle des autres Canadiens et dévoile des écarts importants entre les différents groupes qui la composent. La nation crie de l’Iiyiyiu Aschii, signataire de la Convention de la Baie-James et du Nord québécois (CBJNQ), bénéficie à cet égard d’un état de santé supérieur à celui des autres Indiens inscrits. L’objectif de ce mémoire est d’examiner l’impact de la CBJNQ sur les déterminants sociaux et l’état de santé de ses signataires cris depuis son entrée en vigueur en 1977. Méthodologie : Des analyses comparatives entre les Cris de l’Iiyiyiu Aschii, les Indiens inscrits et les Canadiens ont permis de suivre l’évolution à travers le temps des différences socioéconomiques, d’habitudes de vie et d’état de santé de ces groupes. Résultats : Les Cris ont enregistré, comparativement aux autres groupes d’Indiens inscrits vivant sur une réserve, une plus grande amélioration de leurs déterminants socioéconomiques, une progression relativement limitée de leurs comportements à risque et une préservation à un niveau plus élevé de leurs pratiques traditionnelles. Les Cris ont également vu progresser plus rapidement leur espérance de vie à la naissance que les Canadiens, et leur mortalité infantile a connu une chute encore plus importante que celle enregistrée chez les Indiens inscrits sur réserve. Conclusion : La CBJNQ a vraisemblablement eu un impact significatif sur la santé des Cris de l’Iiyiyiu Aschii. Cette amélioration sanitaire s’explique notamment par la Convention qui a su mettre en place des structures politiques qui ont favorisé l’amélioration des déterminants sociaux et le développement de l’autonomie gouvernementale des Cris.
Resumo:
Différentes méthodes ayant pour objectif une utilisation optimale d'antennes radio-fréquences spécialisées en imagerie par résonance magnétique sont développées et validées. Dans un premier temps, il est démontré qu'une méthode alternative de combinaison des signaux provenant des différents canaux de réception d'un réseau d'antennes mène à une réduction significative du biais causé par la présence de bruit dans des images de diffusion, en comparaison avec la méthode de la somme-des-carrés généralement utilisée. Cette réduction du biais engendré par le bruit permet une amélioration de l'exactitude de l'estimation de différents paramètres de diffusion et de diffusion tensorielle. De plus, il est démontré que cette méthode peut être utilisée conjointement avec une acquisition régulière sans accélération, mais également en présence d'imagerie parallèle. Dans une seconde perspective, les bénéfices engendrés par l'utilisation d'une antenne d'imagerie intravasculaire sont étudiés. Suite à une étude sur fantôme, il est démontré que l'imagerie par résonance magnétique intravasculaire offre le potentiel d'améliorer significativement l'exactitude géométrique lors de mesures morphologiques vasculaires, en comparaison avec les résultats obtenus avec des antennes de surface classiques. Il est illustré qu'une exactitude géométrique comparable à celle obtenue grâce à une sonde ultrasonique intravasculaire peut être atteinte. De plus, plusieurs protocoles basés sur une acquisition de type balanced steady-state free-precession sont comparés dans le but de mettre en évidence différentes relations entre les paramètres utilisés et l'exactitude géométrique obtenue. En particulier, des dépendances entre la taille du vaisseau, le rapport signal-sur-bruit à la paroi vasculaire, la résolution spatiale et l'exactitude géométrique atteinte sont mises en évidence. Dans une même optique, il est illustré que l'utilisation d'une antenne intravasculaire permet une amélioration notable de la visualisation de la lumière d'une endoprothèse vasculaire. Lorsque utilisée conjointement avec une séquence de type balanced steady-state free-precession utilisant un angle de basculement spécialement sélectionné, l'imagerie par résonance magnétique intravasculaire permet d'éliminer complètement les limitations normalement engendrées par l'effet de blindage radio-fréquence de l'endoprothèse.
Resumo:
Bien que plusieurs chercheurs aient analysé l'influence de divers facteurs sur l'intensité des conflits ethniques, il a été constaté que l'identité ethnique elle-même n'a jamais été correctement examinée. Ce phénomène est essentiellement dû à ce que nous croyons être une classification inexacte des groupes ethniques. Nous proposons une nouvelle méthode de catégorisation pour les identités ethniques présentant que la religion, la langue et la race forment les distinctions les plus précises et nous les classifions alors comme les identités ethniques fondamentales. Subséquemment, une étude comparative de ces identités ethniques a été entreprise avec l'utilisation de deux bases de données différentes: l’ensemble de données Battle Deaths qui est associé avec la base de données sur les conflits armés de l’UCDP/PRIO et la base de données Minorities at Risk. Les résultats, dans leur ensemble, ont indiqué que les identités ethniques avec des attachements émotifs plus intenses mènent à une plus grande intensité de conflit. Les conflits ethniques fondamentaux ont démontré une tendance à mener à des conflits plus intenses que les conflits ethniques non-fondamentaux. De plus, la similitude parmi les groupes ethniques tend à affaiblir l'intensité des conflits. En outre, l'étude a également conclu que plus le nombre d'identités ethnique fondamentales impliquées dans un conflit est grand, plus le conflit sera intense. Cependant, les résultats ne pouvaient pas déterminer une différence conséquente parmi l’influence relative des trois identités ethniques fondamentales.
Resumo:
Le développement ainsi que l’amélioration des différentes techniques de purification sont des défis importants pour la chimie d’aujourd’hui. Certaines des méthodes actuelles, tel que le greffage d’un réactif sur un support solide permettant d’accéder à un produit pur par simple filtration du milieu, comportent toutefois certains inconvénients. En effet, les propriétés de solubilité de ces polymères rendent la mise en œuvre des réactions plus difficiles. C’est dans ce contexte que le groupe du Pr. Charette a rapporté l’utilisation de réactifs liés à un sel de tétraarylphosphonium (TAP). Ces sels peuvent être solubilisés dans un solvant tel que le dichlorométhane et aisément retirés du milieu réactionnel par précipitation à l’aide d’éther diéthylique (Chapitre 1). L’un des objectifs de cette thèse a donc été lié à la découverte de deux méthodes complémentaires qui, jusqu’à présent, sont considérées comme des méthodes de choix pour la synthèse des sels de TAP fonctionnalisés (Chapitre 2). L’une d’entre elles est utilisée par Soluphase inc., une entreprise qui commercialise ces sels de TAP. L’efficacité des sels en tant que support dans la synthèse de petites molécules a été démontrée lors de la synthèse d’un produit naturel, la (–)-coniine (Chapitre 3). L’isolement des intermédiaires synthétiques instables par simple précipitation à l’aide d’un support de TAP a permis de rendre cette synthèse plus efficace que celle déjà connue. Dans le deuxième volet de cette thèse, plusieurs problèmes reliés à la synthèse de dérivés cyclopropaniques 1,1-disubstitués ont été étudiés. Ces derniers font partie intégrale de plusieurs produits naturels et de médicaments. Cependant, leur formation par une réaction de cyclopropanation d’alcènes utilisant des réactifs diazoïques possédant deux groupements de type accepteur n’est pas tâche facile (Chapitre 4). En effet, cette réaction souffre d’un faible contrôle diastéréosélectif. Par le fait même, très peu de méthodologies de synthèse ont rapporté l’utilisation de ce type de réactifs diazoïques dans des réactions de cyclopropanation stéréosélectives. L’étude du mécanisme de la réaction de cyclopropanation catalysée au Rh(II) a proposé des indices favorisant un modèle ayant des précédents dans la littérature (Chapitre 5). Ces études nous ont mené à la découverte de la «capacité trans-directrice» du groupement amide lors des réactions de cyclopropanation d’oléfines. Nous avons donc utilisé cette propriété afin de résoudre plusieurs problèmes rencontrés dans la littérature. Nous avons montré qu’elle permet l’accès à des dérivés cyclopropaniques possédant deux groupements carboxyliques géminaux avec des sélectivités élevées (Chapitre 6). Ces produits étaient accessibles que par des séquences synthétiques nécessitant plusieurs étapes. De plus, nous avons démontrés que ces nouveaux dérivés cyclopropaniques sont des outils synthétiques fort utiles dans la synthèse de produits naturels d’intérêt biologique. Cette formidable «capacité trans-directrice» du groupement amide nous a permi de résoudre le problème de la synthèse asymétrique de dérivés carboxyliques α-cyano cyclopropaniques (Chapitre 7). De plus, ce projet nous a menées à la découverte de l’effet de divers additif achiraux permettant d’augmenter la sélectivité dans certaines réactions. Cette réaction possède une vaste étendue et l’utilité de ces nouveaux dérivés cyclopropaniques a été démontrée par plusieurs transformations de groupements fonctionnels.
Resumo:
Nigella sativa ou cumin noir est une plante et un condiment populaires. Les graines de N. sativa sont très utilisées en médecine traditionnelle des pays nord africains pour le traitement du diabète. Cependant, les mécanismes d'actions cellulaires et moléculaires via lesquels cette plante exerce son effet euglycémiant restent encore mal compris. Le but de notre étude est d'examiner l’effet de N. sativa sur la sécrétion d’insuline, le transport de glucose et sur les voies de signalisation impliquées dans l’homéostasie et le métabolisme de glucose, en utilisant des essais biologiques sur des cultures cellulaires murines (cellules β pancréatiques βTC, myoblastes C2C12, hépatocytes H4IIE et adipocytes 3T3-L1) et des études in vivo chez le rat normoglycémique et le Meriones shawi (rongeur) diabétique. Chez les cellules β pancréatiques, N. sativa a augmenté leur prolifération ainsi que la sécrétion basale et gluco-stimulée de l’insuline. N. sativa a augmenté aussi la prise de glucose de 50% chez les cellules musculaires alors que chez les cellules graisseuses, la prise de glucose est augmentée jusqu’au 400%. Les expériences d’immunobuvardage de type western ont montré que N. sativa stimule les voies de signalisation de l’insuline (Akt et ERKs) et aussi celle insulino-indépendante (AMPK) chez les cellules C2C12. Par contre, chez les 3T3-L1, l’augmentation de transport de glucose est plutôt reliée à une activation de la voie de peroxisome proliferator activated receptor γ (PPARγ). Chez les hépatocytes, N. sativa augmente la stimulation des protéines intracellulaires Akt et 5' adenosine monophosphate-activated protein kinase (AMPK). Cette activation de l’AMPK est associée à un effet découpleur de la plante au niveau de la phosphorylation oxydative mitochondriale. Par ailleurs, chez les Meriones shawi diabétiques, N. sativa diminue graduellement la glycémie à jeun ainsi que la réponse glycémique (AUC) à une charge orale en glucose (OGTT) pour atteindre des valeurs semblables aux animaux témoins après quatre semaines de traitement. Une amélioration du profile lipidique est observée autant chez les Meriones shawi diabétiques que chez les rats normaux. Au niveau moléculaire, N. sativa augmente le contenu musculaire en glucose transporter 4 Glut4 et la phosphorylation de l’acetyl-coenzyme A carboxylase ACC dans le muscle soléaire et le foie chez les Mériones shawi diabétiques. Par contre, chez le rat normal, on assiste à une stimulation des voies de signalisation de l’insuline (Akt et ERK) au niveau hépatique. En conclusion, nous avons confirmé l’action insulinotropique de N. sativa au niveau des cellules β pancréatiques et mis en évidence un effet proliférateur pouvant potentiellement s’avérer utile pour contrecarrer la perte de masse cellulaire observée chez les diabétiques. Notre étude a également mis en évidence pour la première fois que N. sativa exerce son activité antidiabétique par une combinaison d’effets insulino-mimétiques et insulino-sensibilisateurs directs permettant ainsi d’augmenter le transport de glucose des tissus périphériques. Cette action de N. sativa est liée à une stimulation des voies de signalisation intracellulaires insulinodépendantes et -indépendantes (AMPK) chez le muscle squelettique et le foie alors qu’elle passe par la voie des PPARγ au niveau du tissu adipeux. Finalement, l’étude in vivo vient confirmer l’effet antidiabétique de N. sativa. Notre apport novateur se situe au niveau de la démonstration que l’activité antidiabétique de N. sativa chez le Meriones shawi diabétique est la résultante des mêmes activités que celles déterminées au niveau de l’étude in vitro. En effet, N. sativa active la voie de l’AMPK, améliore la sensibilité à l’insuline et augmente l’insulinémie. Notre étude montre aussi que N. sativa possède une activité antilipidémiante. Ces résultats confirment le bien-fondé de l'utilisation ethnopharmacologique de N. sativa comme traitement du diabète et des perturbations du métabolisme lipidique qui y sont associées. De plus, les actions pléiotropiques de N. sativa en font un traitement alternatif ou complémentaire du diabète très prometteur qui encouragent à présent la tenue d’études cliniques de bonne qualité.
Resumo:
L’effervescence religieuse et politique au Cameroun engendre progressivement la fragmentation ethnique du peuple chrétien camerounais. Face à la manipulation politique, l’autre nom de l’injustice ethnique, la plupart des Camerounais et Camerounaises y compris les chrétiens réagissent désormais par le tribalisme, l’autre nom de la résignation ou mieux du déchirement social. Les Camerounais et Camerounaises donnent l’impression d’avoir perdu l’esprit de résistance/dissidence qui leur a valu la liberté ou mieux l’indépendance. Comment ignorer que de s’accoutumer au drame de la dérive ethnique, en s’installant, pour des raisons de survie, dans l’éclatement le plus abject, c’est opter pour l’asservissement volontaire d’un peuple qui mène inexorablement au génocide collectif ? Notre recherche repose sur l’hypothèse que les conflits ethniques ont pénétré la sphère du christianisme et font désormais partie des dysfonctionnements de l’Église du Cameroun. Ces dysfonctionnements internes nuisent à la crédibilité de l’Église. Il y a un lien entre les défaillances observées dans l’Église et les défaillances de la société Camerounaise. De plus, le rapport de convergence entre les rivalités ethniques et la religion, provoque un questionnement théologique inévitable : comment amener les différentes ethnies qui forment la plupart des États africains à un harmonieux vivre - ensemble inspiré par le mode de vie et de fonctionnement des Églises chrétiennes, au Cameroun en l'occurrence ? Faut-il se limiter à l’adoption d’une nouvelle image de l’Église par exemple l’Église-famille-de-Dieu, ou bien faut-il prendre le taureau par les cornes et éduquer les peuples africains à une culture de la paix ? La démarche de cette thèse s’inspire de la méthode adoptée par la théologie pratique, c’est-à-dire la praxéologie1, en relation avec la théologie contextuelle2, au niveau du lien avec les méthodes d’analyses des sciences sociales et sciences humaines, et au niveau de sa dimension prophétique créatrice. Elle est construite autour de quatre coordonnées: observation (médiation sociale), interprétation (médiation herméneutique), intervention pastorale (médiation pratique) et prospective. 1 Cf. G. ROUTHIER, et M.VIAU, (dir.), Précis de théologie pratique, Montréal/Bruxelles, Novalis/Lumen Vitae, 2004, 819 p. 2 Cf. C. BOFF, Théorie et pratique . La méthode des théologies de la libération, Paris, Cerf, 1990, 400 p. ii La thèse comporte quatre parties. La première partie (chapitres 1, 2 et 3) consacrée à l’observation cerne la problématique du vivre ensemble multiethnique, pour permettre de mieux percevoir la manifestation du phénomène du tribalisme dans l’Église (les Églises) et la société camerounaise. Elle montre que des situations dramatiques, de malheurs, de pauvreté, de famine, de conflits et de guerres sont causées en partie par le tribalisme exclusif. La deuxième partie (chapitres 4 et 5) porte sur la question du sens. Elle analyse et met à l’épreuve la compréhension du phénomène du tribalisme et des conflits ethniques dans la société et dans les Églises du Cameroun. Sont ainsi abordés, successivement, les principales articulations du tribalisme, la stratégie mise sur pied (diviser pour mieux régner) pour la transformation des structures sociales au Cameroun pendant la colonisation, puis récupérée par les politiciens comme idéologie politique depuis les indépendances. Nous en sommes arrivés à constater que cette idéologie a conduit à une profonde déstructuration de la société camerounaise jusque dans l’Église (les Églises). La troisième partie (chapitres 6 et 7) est consacrée à la pratique ecclésiale du dialogue de la diversité ethnique africaine pour la paix ; nous y montrons comment les solidarités ethniques purifiées au feu de l’Évangile peuvent avoir une influence sur la pratique chrétienne. Nous cherchons ensuite à démontrer que le dialogue interethnique bien articulé est le chemin de la réconciliation. La quatrième partie (chapitre 8) est un effort pour passer de l’utopie mise en pratique à une pratique en forme d’utopie. Nous cherchons à montrer que le dialogue pastoral enrichi par la diversité ethnique et religieuse entraînera la transformation de l’Église locale dans son interaction avec les différentes ethnies du Cameroun et d’Afrique.
Resumo:
Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée.
Resumo:
Sommaire Cette thèse examine les liens entre la présence de risques suicidaires chez les adolescents et leur perception des pratiques de chacun de leurs parents. L’étude a examiné l’association entre le comportement suicidaire et différents aspects des pratiques parentales incluant l’affection, l’exercice du contrôle comportemental et psychologique ainsi que les conflits entre parent et adolescents. La thèse a également examiné l’effet du statut matrimonial des parents sur le comportement suicidaire chez les jeunes. Le dernier objectif de l’étude a été d’explorer le rôle du sexe de l’adolescent comme facteur de vulnérabilité face au suicide. L’échantillon de l’étude était composé 1096 adolescents Montréalais, âgés de 11 à 18 ans. L’échantillon était également réparti entre filles et garçons, fréquentant deux écoles secondaires de la région de Montréal, dans la province du Québec au Canada. Il y avait deux groupes à l’étude : le groupe suicidaire et le groupe non-suicidaire. Le premier groupe incluait les sujets présentant des idéations suicidaires et ceux ayant fait une ou plusieurs tentatives de suicide. Un questionnaire auto-rapporté fut administré à chaque sujet pour évaluer les dimensions suivantes auprès de la mère et du père : le niveau de proximité affective, le niveau de supervision parentale, le contrôle comportemental et le contrôle psychologique, la tolérance à l’égard des amis, ainsi que la fréquence et l’impact émotionnel des conflits. Une échelle a également évalué la présence éventuelle de comportements suicidaires chez les jeunes. Dans le but de tester l’hypothèse de base de l’étude, une série d’analyses descriptives et une MANCOVA ont été réalisées. L’hypothèse générale de la thèse postulant que les adolescents ayant des risques suicidaires présenteraient des relations plus problématiques avec leurs parents fut confirmée. En contrôlant l’effet de la détresse psychologique des adolescents, les analyses ont mené à la conclusion que, dans les familles biparentales, un faible niveau de proximité affective avec la mère, une fréquence plus élevée de conflits avec la mère, un excès du contrôle psychologique et un plus faible niveau de supervision maternelle, présentaient des liens significatifs avec le comportement suicidaire chez les adolescents. Indépendamment de la structure familiale, les caractéristiques suivantes du père étaient respectivement perçues par l’adolescent comme ayant des liens significatifs avec le comportement suicidaire des adolescents: faible proximité affective, impact émotionnel et fréquence élevée des conflits ainsi que le manque de supervision. Ces résultats ont été interprétés à la lumière des théories de la socialisation qui mettent l’accent sur le rôle central de la qualité des liens affectifs entre parents et adolescents, comme facteur de protection contre les risques suicidaires. Les résultats ont aussi révélé que les filles adolescentes sont plus exposées aux risques suicidaires tels que tentatives et idéations suicidaires. Les conclusions de cette étude soulignent le besoin urgent de recherches plus poussées sur le comportement suicidaire des adolescents et leurs liens avec les facteurs familiaux, en tenant compte du statut matrimonial des parents. La thèse met également l’accent sur la nécessité de mettre en place des programmes de prévention auprès des adolescents présentant des risques suicidaires élevés.
Resumo:
Cette thèse porte sur les représentations sociales. Fruit d’un bricolage conceptuel, ces représentations s’inspirent en partie des travaux de Serge Moscovici et de certains auteurs plus contemporains qui s’inscrivent dans son prolongement, dits de l’école française des représentations sociales, ainsi que d’auteurs anglo-saxons qui travaillent à partir de ce concept. Les écrits d’autres chercheurs, dont Stuart Hall, Richard Dyer et Jean-Michel Berthelot, qui adoptent dans des perspectives plus particulièrement liées aux Cultural Studies et à la sociologie ont également aidé à préciser notre façon d’envisager les représentations sociales et d’appréhender leur fonctionnement. Plus précisément, à la suite de Jodelet (1989), nous envisageons les représentations comme des « formes de connaissances socialement élaborées et partagées, ayant une visée pratique et concourant à la construction d’une réalité commune à un ensemble social » (p. 36). Ces représentations possèdent également d’autres particularités. Elles sont, d’après nous, constitutives ainsi que formées par des procédés langagiers qui rendent possibles des opérations. Ce concept nous permet d’étudier les représentations du point de vue de leur effectivité, soit de leur capacité à influencer les significations, à apporter un changement dans la manière d’interpréter une situation et, ce faisant, d’affecter les pratiques et d’induire une différence dans le monde. Ce questionnement au sujet des représentations se déploie sur un terrain qui nous semblait particulièrement riche pour en étudier le fonctionnement, soit celui de la politique qui, par ailleurs, se déroule actuellement dans un contexte de spectacularisation. Présenté comme un brouillage des genres entre divertissement et politique, ce phénomène est également lié à l’avènement de la celebrity politics, à la personnalisation et à l’évaluation, à l’importance prise par le style en politique ainsi qu’à la dramatisation, la fragmentation et la normalisation. Plus précisément, nous étudions les représentations dans un contexte de spectacularisation à partir de trois corpus documentant des événements aussi distincts que les fusions municipales en 2001, la montée en popularité de Mario Dumont et de l’ADQ en 2002 et 2003 ainsi que la série Bunker, le cirque, diffusée à la télévision de Radio-Canada à l’automne 2002. Ces corpus regroupent des textes de sources et de format variés, des textes de loi aux éditoriaux en passant par des dramatiques télévisuelles et des forums électroniques. Nous y avons effectué une analyse itérative et transversale des discours afin de mieux comprendre le fonctionnement des représentations dans un contexte de spectacularisation. Nos analyses ont démontré la variété des procédés et des opérations, telles que l’incontestabilisation, la projection, la localisation, l’amplification, la réduction et l’évaluation, qui permettent de modifier le sens et les enjeux des événements discutés. Les analyses ont également permis d’illustrer que les procédés et les opérations qu’ils rendent possibles balisent les frontières de l’objet et offrent un système classificateur.