356 resultados para Tiers
Resumo:
Le problème de l’extrême pauvreté dans le Tiers-monde n’est pas d’abord une question économique. Il est avant tout politique parce qu’il est la conséquence directe des choix de société et de l’organisation du pouvoir au niveau des États et des diverses instances de la communauté internationale. Le politique a pour objet la conquête du pouvoir et la répartition des richesses à grande échelle. Il s’agit aussi d’un problème moral parce que les options prises collectivement par les peuples et le concert des nations ne s’orientent pas toujours vers la vertu de justice et l’égalité de chances pour tous. Extrême pauvreté et justice globale forment un binôme qui nous ramène donc au cœur de la philosophie politique et morale. Après la Seconde guerre mondiale, la philosophie politique a élargi ses horizons. Elle réfléchit davantage à l’exercice du pouvoir sur la scène internationale et la distribution des richesses au niveau mondial. Le phénomène de la mondialisation économique crée une dépendance mutuelle et d’importantes influences multilatérales entre les États. Plus que par le passé, l’autarcie n’est guère envisageable. Le dogme de la souveraineté intangible des États, issu du Traité de Westphalie au XVIIe siècle, s’avère de plus en plus caduque au regard des enjeux communs auxquels l’humanité fait actuellement face. D’où la nécessité d’une redéfinition du sens des souverainetés nationales et d’une fondation des droits cosmopolitiques pour chaque individu de la planète. Voilà pourquoi le binôme extrême pauvreté/justice globale nécessite une réflexion philosophique sur le concept de la responsabilité qui s’étend non seulement sur la sphère nationale, mais aussi sur une large amplitude cosmopolitique. L’expression « pays du Tiers-monde » peut sembler archaïque, péjorative et humiliante. Cependant, mieux que celles de « pays sous-développés » ou « pays en voie de développement », elle rend compte, sans euphémisme, de la réalité crue, brute et peu élégante de la misère politique et économique qui y sévit. Bien qu’elle semble désuète, elle délimite assez clairement le domaine de définition conceptuel et géographique de notre champ d’investigation philosophique. Elle désigne l’ensemble des pays qui sont exclus de la richesse économique répartie entre les nations. Étant donné que le pouvoir économique va généralement avec le pouvoir politique, cet ensemble est aussi écarté des centres décisionnels majeurs. Caractérisée par une pauvreté extrême, la réalité tiers-mondiste nécessité une analyse minutieuse des causes de cette marginalisation économique et politique à outrance. Une typologie de la notion de responsabilité en offre une figure conceptuelle avec une géométrie de six angles : la causalité, la moralité, la capacité, la communauté, le résultat et la solidarité, comme fondements de la réparation. Ces aspects sous lesquels la responsabilité est étudiée, sont chapeautés par des doctrines philosophiques de types conséquentialiste, utilitariste, déontologique et téléologique. La typologie de la responsabilité donne lieu à plusieurs solutions : aider par philanthropie à sauver des vies humaines ; établir et assigner des responsabilités afin que les torts passés et présents soient réparés aussi bien au niveau national qu’international ; promouvoir l’obligation de protéger dans un contexte international sain qui prenne en considération le devoir négatif de ne pas nuire aux plus défavorisés de la planète ; institutionnaliser des règles transfrontalières de justice ainsi que des droits cosmopolitiques. Enfin, nous entendrons par omniresponsabilité la responsabilité de tous vis-à-vis de ceux qui subissent les affres de l’extrême pauvreté dans le Tiers-monde. Loin d’être un concept-valise fourre-tout, c’est un ensemble de responsabilités partagées par des acteurs identifiables de la scène mondiale, en vue de la coréparation due aux victimes de l’injustice globale. Elle vise un telos : l’épanouissement du bien-être du citoyen du monde.
Resumo:
Il est bien connu que les immigrants rencontrent plusieurs difficultés d’intégration dans le marché du travail canadien. Notamment, ils gagnent des salaires inférieurs aux natifs et ils sont plus susceptibles que ces derniers d’occuper des emplois précaires ou pour lesquels ils sont surqualifiés. Dans cette recherche, nous avons traité de ces trois problèmes sous l’angle de la qualité d’emploi. À partir des données des recensements de la population de 1991 à 2006, nous avons comparé l’évolution de la qualité d’emploi des immigrants et des natifs au Canada, mais aussi au Québec, en Ontario et en Colombie-Britannique. Ces comparaisons ont mis en évidence la hausse du retard de qualité d’emploi des immigrants par rapport aux natifs dans tous les lieux analysés, mais plus particulièrement au Québec. Le désavantage des immigrants persiste même lorsqu’on tient compte du capital humain, des caractéristiques démographiques et du taux de chômage à l’entrée dans le marché du travail. La scolarité, l’expérience professionnelle globale et les connaissances linguistiques améliorent la qualité d’emploi des immigrants et des natifs. Toutefois, lorsqu’on fait la distinction entre l’expérience de travail canadienne et l’expérience de travail étrangère, on s’aperçoit que ce dernier type d’expérience réduit la qualité d’emploi des immigrants. Dans ces circonstances, nous trouvons incohérent que le Canada et le Québec continuent à insister sur ce critère dans leur grille de sélection des travailleurs qualifiés. Pour valoriser les candidats les plus jeunes ayant peu d’expérience de travail dans leur pays d’origine, nous suggérons d’accroître l’importance accordée à l’âge dans ces grilles au détriment de l’expérience. Les jeunes, les étudiants étrangers et les travailleurs temporaires qui possèdent déjà une expérience de travail au Canada nous apparaissent comme des candidats à l’immigration par excellence. Par contre, les résultats obtenus à l’aide de la méthode de décomposition de Blinder-Oaxaca ont montré que l’écart de qualité d’emploi entre les immigrants et les natifs découle d’un traitement défavorable envers les immigrants dans le marché du travail. Cela signifie que les immigrants sont pénalisés au chapitre de la qualité d’emploi à la base, et ce, peu importe leurs caractéristiques. Dans ce contexte, la portée de tout ajustement aux grilles de sélection risque d’être limitée. Nous proposons donc d’agir également en aval du problème à l’aide des politiques d’aide à l’intégration des immigrants. Pour ce faire, une meilleure concertation entre les acteurs du marché du travail est nécessaire. Les ordres professionnels, le gouvernement, les employeurs et les immigrants eux-mêmes doivent s’engager afin d’établir des parcours accélérés pour la reconnaissance des compétences des nouveaux arrivants. Nos résultats indiquent aussi que le traitement défavorable à l’égard des immigrants dans le marché du travail est plus prononcé au Québec qu’en Ontario et en Colombie-Britannique. Il se peut que la société québécoise soit plus réfractaire à l’immigration vu son caractère francophone et minoritaire dans le reste de l’Amérique du Nord. Pourtant, le désir de protéger la langue française motive le Québec à s’impliquer activement en matière d’immigration depuis longtemps et la grille de sélection québécoise insiste déjà sur ce critère. D’ailleurs, près des deux tiers des nouveaux arrivants au Québec connaissent le français en 2011.
Resumo:
La violence conjugale est un phénomène criminel fréquent au Québec. En 2008, les infractions commises en contexte conjugal représentaient plus de 20 % des crimes contre la personne signalés à la police (Ministère de la Sécurité publique, 2010). L’intervention policière et judiciaire en contexte conjugal est complexe, notamment en raison du lien unissant l’agresseur et la victime. Bien que le pouvoir discrétionnaire des intervenants judiciaires en contexte conjugal ait été grandement limité au cours des dernières décennies, ceux-ci bénéficient toujours d’une certaine latitude dans leur décision de poursuivre, ou non, différentes étapes du processus judiciaire. Au fil du temps, plusieurs études se sont intéressées aux éléments influençant la prise de décision en contexte conjugal. Cependant, celles-ci ne portent généralement que sur une seule étape du processus et certains facteurs décisionnels n’ont jamais été testés empiriquement. C’est notamment le cas des éléments liés aux stéréotypes de la violence conjugale. Certains auteurs mentionnent que les incidents qui ne correspondent pas au stéréotype de l’agresseur masculin violentant une victime qualifiée d’irréprochable et d’innocente font l’objet d’un traitement judiciaire plus sommaire, mais ces affirmations ne reposent, à notre connaissance, sur aucune donnée empirique. Cette étude tente de vérifier cette hypothèse en examinant l’impact de ces éléments sur cinq décisions policières et judiciaires. À partir d’une analyse de contenu quantitative de divers documents liés au cheminement judiciaire de 371 incidents commis en contexte conjugal sur le territoire du Centre opérationnel Nord du Service de police de la Ville de Montréal en 2008, la thèse examine l’utilisation du pouvoir discrétionnaire dans le traitement judiciaire de ces incidents. Elle comporte trois objectifs spécifiques. Le premier objectif permet la description du cheminement judiciaire des incidents commis en contexte conjugal. Nos résultats indiquent que ceux-ci font l’objet d’un traitement plus punitif puisqu’ils font plus fréquemment l’objet de procédures à la cour que les autres types de crimes. Cette judiciarisation plus systématique pourrait expliquer le faible taux de condamnation de ceux-ci (17,2 %). Le second objectif permet la description des principales caractéristiques de ces incidents. La majorité implique des gestes de violence physique et les policiers interviennent généralement auprès de conjoints actuels. La plupart des victimes rapportent la présence de violences antérieures au sein du couple et le tiers veulent porter plainte contre le suspect. Finalement, 78 % des incidents impliquent un agresseur masculin et une victime féminine et 14,29 % des victimes sont soupçonnées d’avoir posé le premier geste hostile ou violent lors de l’incident. Le dernier objectif permet l’identification des principaux éléments associés aux décisions prises en contexte conjugal. Les résultats confirment l’hypothèse selon laquelle les incidents n’impliquant pas un agresseur masculin et une victime féminine ou ceux dont les policiers soupçonnent la victime d’avoir posé le premier geste hostile ou violent font l’objet d’un traitement judiciaire plus sommaire. En outre, la majorité des facteurs décisionnels étudiés perdent de leur influence au cours du processus judiciaire et les décisions prises précédemment influencent fortement les décisions subséquentes. Finalement, le désir de porter plainte de la victime n’influence pas directement les décisions des intervenants judiciaires.
Resumo:
Ce mémoire présente une analyse indirecte détaillée des niveaux de la fécondité de la population canadienne au XIXe siècle. L’exploitation des recensements canadiens de 1852 et 1881 est rendue possible grâce au Programme de recherche en démographie historique (PRDH) constituant ainsi la source de données sur laquelle s'appuie ce mémoire. Une analyse critique du recensement canadien de 1852 établit qu’il est représentatif pour ce qui est de l’âge des individus, du sexe, de l’état matrimonial, du lieu de naissance et du type de maison habitée, malgré la destruction de près d’un tiers de ses manuscrits avant d’avoir été transposés sur microfilm. De plus, l’impact de l’absence totale ou partielle des données pour les villes est mitigé, car moins de 10 % de la population était établi en ville cette année-là. L’utilisation de micro-données censitaires permet d’élaborer différentes mesures de la fécondité, telles que le rapport enfants par femme et la méthode des enfants propres. Des résultats inédits sont d'ailleurs présentés, notamment à l’aide du recensement de 1852, car ces données n’ont pas encore été exploitées, permettant ainsi d’allonger dans le temps l’analyse de la fécondité.Une analyse différentielle du risque qu’ont les femmes mariées âgées entre 40 et 49 ans vivant avec un enfant de moins de 5 ans a démontré que la fécondité effective était plus élevée chez les femmes catholiques nées au Canada, appartenant au groupe d’âge plus jeune (40-44 ans), vivant en zone rurale et ayant un mari cultivateur. Nous concluons que ces associations sont évidentes autant en 1852 qu’en 1881.
Resumo:
Contexte : Les médecins spécialistes peuvent participer aux soins ambulatoires des personnes atteintes de maladies chroniques (MCs) et comorbidité comme co-gestionnaire ou consultant selon qu’ils sont responsables ou non du suivi du patient. Il y a un manque d’évidences sur les déterminants et l’impact du type d’implication du médecin spécialiste, ainsi que sur la façon optimale de mesurer la comorbidité pour recueillir ces évidences. Objectifs : 1) déterminer chez les patients atteints de MCs les facteurs associés à la cogestion en spécialité, dont les caractéristiques des organisations de première ligne et la comorbidité; 2) évaluer si le type d’implication du spécialiste influence le recours à l’urgence; 3) identifier et critiquer les méthodes de sélection d’un indice de comorbidité pour la recherche sur l’implication des spécialistes dans le suivi des patients. Méthodologie : 709 adultes (65 +/- 11 ans) atteints de diabète, d’arthrite, de maladie pulmonaire obstructive chronique ou d’insuffisance cardiaque furent recrutés dans 33 cliniques de première ligne. Des enquêtes standardisées ont permis de mesurer les caractéristiques des patients (sociodémographiques, comorbidité et qualité de vie) et des cliniques (modèle, ressources). L’utilisation des services de spécialistes et de l’urgence fut mesurée avec une base de données médico-administratives. Des régressions logistiques multivariées furent utilisées pour modéliser les variables associées à la cogestion et comparer le recours à l’urgence selon le type d’implication du spécialiste. Une revue systématique des études sur l’utilisation des services de spécialistes, ainsi que des revues sur les indices de comorbidité fut réalisée pour identifier les méthodes de sélection d’un indice de comorbidité utilisées et recommandées. Résultats : Le tiers des sujets a utilisé les services de spécialistes, dont 62% pour de la cogestion. La cogestion était associée avec une augmentation de la gravité de la maladie, du niveau d’éducation et du revenu. La cogestion diminuait avec l’âge et la réception de soins dans les cliniques avec infirmière ayant un rôle innovateur. Le recours à l’urgence n’était pas influencé par l’implication du spécialiste, en tant que co-gestionnaire (OR ajusté = 1.06, 95%CI = 0.61-1.85) ou consultant (OR ajusté = 0.97, 95%CI = 0.63-1.50). Le nombre de comorbidités n’était pas associé avec la cogestion, ni l’impact du spécialiste sur le recours à l’urgence. Les revues systématiques ont révélé qu’il n’y avait pas standardisation des procédures recommandées pour sélectionner un indice de comorbidité, mais que 10 critères concernant principalement la justesse et l’applicabilité des instruments de mesure pouvaient être utilisés. Les études sur l’utilisation des services de spécialistes utilisent majoritairement l’indice de Charlson, mais n’en expliquent pas les raisons. Conclusion : L’implication du spécialiste dans le suivi des patients atteints de MCs et de comorbidité pourrait se faire essentiellement à titre de consultant plutôt que de co-gestionnaire. Les organisations avec infirmières ayant un rôle innovateur pourraient réduire le besoin pour la cogestion en spécialité. Une méthode structurée, basée sur des critères standardisés devrait être utilisée pour sélectionner l’indice de comorbidité le plus approprié en recherche sur les services de spécialistes. Les indices incluant la gravité des comorbidités seraient les plus pertinents à utiliser.
Resumo:
Ce projet combine l’archéologie expérimentale, l’analyse morphométrique et la comparaison des résultats à l’assemblage archéologique de l’Abri Cellier (Dordogne, France) (N = 12) dans le but de quantifier l’apport du réaffûtage à la variabilité des formes et des dimensions des pointes de projectile aurignaciennes en bois de cervidé. La relecture morphofonctionnelle de la série expérimentale de Knecht (N = 79) couplée à une reproduction expérimentale récente (N = 9) démontre que la nature des dommages infligés au fût des pointes dépend (1) de la force du tir, (2) de la nature de la cible impactée et, (3) des propriétés biomécaniques du matériau employé. Pour sa part, le réaffûtage dépend (1) de l’expérience du réaffûteur et, (2) de la séquence technique employée. Ce comportement est standardisé et demeure indépendant du type de pointe de même que du type de dommage du fût. Les changements morphométriques associés à ce comportement se résument (1) à un déplacement progressif de l’épaule de la base vers le fût de la pointe, (2) à une tendance à l’accroissement de l’angle du fût et, (3) à une localisation des traces de réaffûtage sur le tiers distal de la partie distale de la pointe. Puisque l’utilisation et le réaffûtage sont deux processus impossible à départager sur les artefacts, nous proposons l’adoption d’une mesure, le ratio proximo-distal (RP/D) afin de traduire l’intensité de ces processus convergents et faciliter la comparaison entre les assemblages archéologiques.
Resumo:
Contexte De nombreuses études, utilisant des indicateurs de qualité variés, ont démontré que la qualité des soins pour la dépression n’est pas optimale en première ligne. Peu de ces études ont examiné les facteurs associés à la réception d’un traitement adéquat, en particulier en tenant compte simultanément des caractéristiques individuelles et organisationnelles. L'association entre un traitement adéquat pour un épisode dépressif majeur (EDM) et une amélioration des symptômes dépressifs n'est pas bien établie dans des conditions non-expérimentales. Les objectifs de cette étude étaient de : 1) réaliser une revue systématique des indicateurs mesurant la qualité du traitement de la dépression en première ligne ; 2) estimer la proportion de patients souffrant d’EDM qui reçoivent un traitement adéquat (selon les guides de pratique clinique) en première ligne ; 3) examiner les caractéristiques individuelles et organisationnelles associées à l’adéquation du traitement pour la dépression ; 4) examiner l'association entre un traitement minimalement adéquat au cours des 12 mois précédents et l'évolution des symptômes dépressifs à 6 et 12 mois. Méthodes La littérature sur la qualité du traitement de la dépression a été examinée en utilisant un ensemble de mots-clés (« depression », « depressive disorder », « quality », « treatment », « indicator », « adequacy », « adherence », « concordance », « clinical guideline » et « guideline ») et « 360search », un moteur de recherche fédérée. Les données proviennent d'une étude de cohorte incluant 915 adultes consultant un médecin généraliste, quel que soit le motif de consultation, répondant aux critères du DSM-IV pour l’EDM dans la dernière année, nichés dans 65 cliniques de première ligne au Québec, Canada. Des analyses multiniveaux ont été réalisées. Résultats Bien que majoritairement développés à partir de guides de pratique clinique, une grande variété d'indicateurs a été observée dans la revue systématique de littérature. La plupart des études retenues ont utilisé des indicateurs de qualité rudimentaires, surtout pour la psychothérapie. Les méthodes utilisées étaient très variées, limitant la comparabilité des résultats. Toutefois, quelque soit la méthode choisie, la plupart des études ont révélé qu’une grande proportion des personnes souffrant de dépression n’ont pas reçu de traitement minimalement adéquat en première ligne. Dans notre échantillon, l’adéquation était élevée (> 75 %) pour un tiers des indicateurs de qualité mesurés, mais était faible (< 60 %) pour près de la moitié des mesures. Un peu plus de la moitié de l'échantillon (52,2 %) a reçu au moins un traitement minimalement adéquat pour la dépression. Au niveau individuel, les jeunes adultes (18-24 ans) et les personnes de plus de 65 ans avaient une probabilité moins élevée de recevoir un traitement minimalement adéquat. Cette probabilité était plus élevée pour ceux qui ont un médecin de famille, une assurance complémentaire, un trouble anxieux comorbide et une dépression plus sévère. Au niveau des cliniques, la disponibilité de la psychothérapie sur place, l'utilisation d'algorithmes de traitement, et le mode de rémunération perçu comme adéquat étaient associés à plus de traitement adéquat. Les résultats ont également montré que 1) la réception d'au moins un traitement minimalement adéquat pour la dépression était associée à une plus grande amélioration des symptômes dépressifs à 6 et à 12 mois; 2) la pharmacothérapie adéquate et la psychothérapie adéquate étaient toutes deux associées à de plus grandes améliorations dans les symptômes dépressifs, et 3) l'association entre un traitement adéquat et l'amélioration des symptômes dépressifs varie en fonction de la sévérité des symptômes au moment de l'inclusion dans la cohorte, un niveau de symptômes plus élevé étant associé à une amélioration plus importante à 6 et à 12 mois. Conclusions Nos résultats suggèrent que des interventions sont nécessaires pour améliorer la qualité du traitement de la dépression en première ligne. Ces interventions devraient cibler des populations spécifiques (les jeunes adultes et les personnes âgées), améliorer l'accessibilité à la psychothérapie et à un médecin de famille, et soutenir les médecins de première ligne dans leur pratique clinique avec des patients souffrant de dépression de différentes façons, telles que le développement des connaissances pour traiter la dépression et l'adaptation du mode de rémunération. Cette étude montre également que le traitement adéquat de la dépression en première ligne est associé à une amélioration des symptômes dépressifs dans des conditions non-expérimentales.
Resumo:
L'épilepsie constitue le désordre neurologique le plus fréquent après les maladies cérébrovasculaires. Bien que le contrôle des crises se fasse généralement au moyen d'anticonvulsivants, environ 30 % des patients y sont réfractaires. Pour ceux-ci, la chirurgie de l'épilepsie s'avère une option intéressante, surtout si l’imagerie par résonance magnétique (IRM) cérébrale révèle une lésion épileptogène bien délimitée. Malheureusement, près du quart des épilepsies partielles réfractaires sont dites « non lésionnelles ». Chez ces patients avec une IRM négative, la délimitation de la zone épileptogène doit alors reposer sur la mise en commun des données cliniques, électrophysiologiques (EEG de surface ou intracrânien) et fonctionnelles (tomographie à émission monophotonique ou de positrons). La faible résolution spatiale et/ou temporelle de ces outils de localisation se traduit par un taux de succès chirurgical décevant. Dans le cadre de cette thèse, nous avons exploré le potentiel de trois nouvelles techniques pouvant améliorer la localisation du foyer épileptique chez les patients avec épilepsie focale réfractaire considérés candidats potentiels à une chirurgie d’épilepsie : l’IRM à haut champ, la spectroscopie proche infrarouge (SPIR) et la magnétoencéphalographie (MEG). Dans une première étude, nous avons évalué si l’IRM de haut champ à 3 Tesla (T), présentant théoriquement un rapport signal sur bruit plus élevé que l’IRM conventionnelle à 1,5 T, pouvait permettre la détection des lésions épileptogènes subtiles qui auraient été manquées par cette dernière. Malheureusement, l’IRM 3 T n’a permis de détecter qu’un faible nombre de lésions épileptogènes supplémentaires (5,6 %) d’où la nécessité d’explorer d’autres techniques. Dans les seconde et troisième études, nous avons examiné le potentiel de la SPIR pour localiser le foyer épileptique en analysant le comportement hémodynamique au cours de crises temporales et frontales. Ces études ont montré que les crises sont associées à une augmentation significative de l’hémoglobine oxygénée (HbO) et l’hémoglobine totale au niveau de la région épileptique. Bien qu’une activation contralatérale en image miroir puisse être observée sur la majorité des crises, la latéralisation du foyer était possible dans la plupart des cas. Une augmentation surprenante de l’hémoglobine désoxygénée a parfois pu être observée suggérant qu’une hypoxie puisse survenir même lors de courtes crises focales. Dans la quatrième et dernière étude, nous avons évalué l’apport de la MEG dans l’évaluation des patients avec épilepsie focale réfractaire considérés candidats potentiels à une chirurgie. Il s’est avéré que les localisations de sources des pointes épileptiques interictales par la MEG ont eu un impact majeur sur le plan de traitement chez plus des deux tiers des sujets ainsi que sur le devenir postchirurgical au niveau du contrôle des crises.
Resumo:
Deux tiers des cancers du sein expriment des récepteurs hormonaux ostrogéniques (tumeur ER-positive) et la croissance de ces tumeurs est stimulée par l’estrogène. Des traitements adjuvant avec des anti-estrogènes, tel que le Tamoxifen et les Inhibiteurs de l’Aromatase peuvent améliorer la survie des patientes atteinte de cancer du sein. Toutefois la thérapie hormonale n’est pas efficace dans toutes les tumeurs mammaires ER-positives. Les tumeurs peuvent présenter avec une résistance intrinsèque ou acquise au Tamoxifen. Présentement, c’est impossible de prédire quelle patiente va bénéficier ou non du Tamoxifen. Des études préliminaires du laboratoire de Dr. Mader, ont identifié le niveau d’expression de 20 gènes, qui peuvent prédire la réponse thérapeutique au Tamoxifen (survie sans récidive). Ces marqueurs, identifié en utilisant une analyse bioinformatique de bases de données publiques de profils d’expression des gènes, sont capables de discriminer quelles patientes vont mieux répondre au Tamoxifen. Le but principal de cette étude est de développer un outil de PCR qui peut évaluer le niveau d’expression de ces 20 gènes prédictif et de tester cette signature de 20 gènes dans une étude rétrospective, en utilisant des tumeurs de cancer du sein en bloc de paraffine, de patients avec une histoire médicale connue. Cet outil aurait donc un impact direct dans la pratique clinique. Des traitements futiles pourraient être éviter et l’indentification de tumeurs ER+ avec peu de chance de répondre à un traitement anti-estrogène amélioré. En conséquence, de la recherche plus appropriée pour les tumeurs résistantes au Tamoxifen, pourront se faire.
Resumo:
La fibrillation auriculaire (FA) est la forme d’arythmie la plus fréquente et représente environ un tiers des hospitalisations attribuables aux troubles du rythme cardiaque. Les mécanismes d’initiation et de maintenance de la FA sont complexes et multiples. Parmi ceux-ci, une contribution du système nerveux autonome a été identifiée mais son rôle exact demeure mal compris. Ce travail cible l’étude de la modulation induite par l’acétylcholine (ACh) sur l’initiation et le maintien de la FA, en utilisant un modèle de tissu bidimensionnel. La propagation de l’influx électrique sur ce tissu est décrite par une équation réaction-diffusion non-linéaire résolue sur un maillage rectangulaire avec une méthode de différences finies, et la cinétique d'ACh suit une évolution temporelle prédéfinie qui correspond à l’activation du système parasympathique. Plus de 4400 simulations ont été réalisées sur la base de 4 épisodes d’arythmies, 5 tailles différentes de région modulée par l’ACh, 10 concentrations d’ACh et 22 constantes de temps de libération et de dégradation d’ACh. La complexité de la dynamique des réentrées est décrite en fonction de la constante de temps qui représente le taux de variation d’ACh. Les résultats obtenus suggèrent que la stimulation vagale peut mener soit à une dynamique plus complexe des réentrées soit à l’arrêt de la FA en fonction des quatre paramètres étudiés. Ils démontrent qu’une décharge vagale rapide, représentée par des constantes de temps faibles combinées à une quantité suffisamment grande d’ACh, a une forte probabilité de briser la réentrée primaire provoquant une activité fibrillatoire. Cette activité est caractérisée par la création de plusieurs ondelettes à partir d’un rotor primaire sous l’effet de l’hétérogénéité du gradient de repolarisation causé par l’activité autonomique.
Resumo:
La faune et la flore de l’île de La Réunion atteignent un niveau d’endémisme très élevé avec le tiers de sa surface encore recouverte par des forêts naturelles. Ces conditions exceptionnelles ont favorisé, en 2007, la création du Parc National de La Réunion qui couvre 40 % du territoire. Parmi les différentes atteintes à l’environnement dans les aires du Parc national, le braconnage est devenu, au cours des deux dernières décennies, un phénomène très préoccupant pour les différents acteurs locaux et régionaux qui s’occupent de la gestion de ce problème. Plusieurs espèces braconnées sont actuellement menacées et les dégâts occasionnés par les braconniers sont visibles dans le paysage réunionnais. Ce projet de recherche vise à répondre à la question de recherche suivante : De quelle façon se manifeste le braconnage (les motivations, la fréquence, les techniques, les lieux) dans le Parc national de La Réunion et comment les différents acteurs réagissent-ils face à la pratique du braconnage? La méthodologie de cette recherche repose sur une démarche combinant l’approche exploratoire et l’étude de cas. Les données qualitatives et quantitatives que nous avons utilisées pour cette étude ont été collectées par une recherche bibliographique, une collection de données statistiques, et par des entrevues (exploratoires, semi-dirigées, individuelles non-structurées) réalisées sur le terrain. Les résultats obtenus nous ont permis de constater que le braconnage à La Réunion est un phénomène ancré dans la culture locale et une conséquence directe du contexte économique actuel. Notre recherche a relevé deux catégories de braconniers : les braconniers occasionnels (touristes et braconniers du dimanche) et les braconniers professionnels. Le braconnage de type occasionnel est très largement répandu dans la population, car il s’inscrit dans une continuité des traditions. Le braconnage de type professionnel où le braconnier prélève de façon systématique dans la nature à des fins monétaires, est pratiqué par peu de gens, mais il occasionne de lourdes pertes contrairement au braconnage de type occasionnel. Les différentes méthodes mises en place par les divers acteurs impliqués dans la gestion du braconnage ont été répertoriées et examinées. Tandis que le poinçonnage des plants de vanille et le marquage des tangues sont efficaces, la délation des braconniers et les visites éducatives restent des pistes à explorer, et les conférences rééducatives des braconniers ainsi que la vente de permis de chasse au tangue ont démontré une faible efficacité. Des recommandations pour améliorer la dynamique entre les acteurs impliqués dans la gestion du braconnage ont été données par plusieurs de ces acteurs interrogés au cours de cette recherche.
Resumo:
La restriction de croissance intrautérine (RCIU) est associée à l’apparition de maladies à l’âge adulte et le phénotype de la condition pathologique peut être différent selon le sexe. Notre laboratoire a développé un modèle de RCIU chez le rat en administrant une diète faible en sodium lors du dernier tiers de la gestation entraînant une réduction de l’expansion volémique maternelle et de la perfusion utéroplacentaire. L'activité rénine et la concentration d'aldostérone plasmatique sont augmentées chez la mère et les foetus RCIU. Antérieurement, notre laboratoire a démontré une augmentation de l’expression génique et protéique rénale de la Na+-K+-ATPase-α1 uniquement chez les foetus femelles RCIU. Ainsi, nous émettons l’hypothèse que la diminution du volume circulant chez la rate gestante entraîne une augmentation et une expression différentielle, selon le sexe, des éléments de la cascade de signalisation du récepteur des minéralocorticoïdes (MR) dans les reins de foetus RCIU. L’expression des gènes est réalisée par qRT-PCR et celle des protéines par immunobuvardage de type Western. Bien que les résultats démontrent que la transcription génique de SGK1, α-ENaC et GILZ soit augmentée dans les reins de foetus RCIU, l’expression protéique de SGK1, pSGK1(Thr 256) et α-ENaC est similaire à celle des témoins. La protéine GILZ est indétectable. Pour CNKSR3, aucune différence de l’ARNm ou de la protéine n’a été observée entre les deux groupes. Par contre, même si l’expression génique du MR n’est pas différente, l’expression protéique est diminuée chez les RCIU. Aucun effet du sexe n’a été observé. En conclusion, l’augmentation d'aldostérone plasmatique chez les foetus ayant subi une RCIU stimule la transcription des gènes associés à la voie de réabsorption sodique, mais la quantité protéique demeure inchangée. Ceci suggère qu’il peut avoir des mécanismes de régulation post-transcriptionnelle ou une dégradation accélérée des protéines. Malgré la pertinence du sexe dans le développement de maladies, le sexe n’influence pas l’expression des composantes de la voie de rétention sodique chez le foetus. Il serait important de suivre cette voie en fonction de l’âge et de corréler les expressions génique et protéique avec l’apparition de maladies.
Resumo:
Dans l’Union européenne, certaines catégories d’immigrants font l’objet d’une protection renforcée contre l’expulsion. Cette protection contre l’expulsion s’acquiert notamment après avoir résidé de manière continue et pour une longue durée dans un État membre de l’Union européenne, de sorte que son intégration y soit forte. Qu’est ce que la notion de protection renforcée contre l’expulsion signifie exactement? Nous examinerons le droit de l’UE, en comparant le droit à la libre circulation des ressortissants européens et des travailleurs turcs, et l’étendue de leur protection respective contre l’expulsion. Est-elle la même ? Pour répondre à cette question, nous verrons le droit applicable à chacune de ces catégories de citoyens, notamment la Directive 2004/38/CE du Parlement européen et du Conseil, du 29 avril 2004, relative au droit des citoyens de l’Union et des membres de leurs familles de circuler et de séjourner librement sur le territoire des États membres, le droit d’association UE/Turquie ainsi que la Directive 2003/109/CE du Conseil du 25 novembre 2003 relative au statut des ressortissants de pays tiers résidents de longue durée. Cette protection diffère selon la citoyenneté des individus. Ainsi, la protection des ressortissants turcs est moindre que celle des ressortissants européens. Toutefois, la CJUE a joué un rôle proactif dans l’interprétation des droits à la libre circulation des travailleurs turcs, en interprétant le droit d’association Turquie/UE par analogie avec celui applicable aux citoyens européens. Dans les litiges relatifs à la protection contre l’expulsion, les travailleurs turcs se sont également vu reconnaître une protection semblable à celle des ressortissants européens par la CJUE. La Convention européenne des droits de l’homme est un autre instrument qui vient protéger les résidants de l’Europe contre une violation de leurs droits fondamentaux que pourrait entraîner une expulsion du territoire. Face à cet activisme judiciaire, on est en mesure de se demander dans quelle mesure les ressortissants travailleurs turcs et européens jouissent d’une protection différente contre l’expulsion.
Resumo:
Les arrêts sur l’affaire Beaudoin c. Université de Sherbrooke (Cour Supérieure et Cour d’Appel du Québec 2008-2010) ont porté sur l’intensité de l’obligation de consultation insérée dans l’accord de partenariat de recherche. Ce type de partenariat est souvent créé par un accord et peut prendre plusieurs formes. La plupart d’entre elles sont méconnues par le droit, c’est pourquoi la doctrine les considère comme étant des entreprises complexes puisque le choix des partenaires est souvent guidé par le souci d’échapper au formalisme qu’imposent les règles étatiques. Cependant, les pratiques connues dans le secteur d’activité des associés et les accords qui les lient sont souvent les seules règles qu’ils suivent. En cas de conflit, ils recourent généralement à un tiers expert pour régler leur litige, la saisine des tribunaux ne se faisant qu’exceptionnellement. Dans cette cause, les contractions entre les deux décisions ont soulevé quelques interrogations : d’une part, sur la capacité des tribunaux à trancher des conflits qui peuvent naître au cours de l’exécution de ce type de contrat, et d’autre part sur la compatibilité des règles matérielles applicables au fond par les juges lorsque les parties ne sont liées que par la lex contractus et les usages reconnus dans leur secteur d’activité. Cette étude tente donc d’identifier la forme de partenariat en cause afin de mesurer l’étendue de la compétence ratione materiae du juge dans la résolution des conflits nés d’un contrat complexe (PARTIE I), et d’examiner l’opportunité de recourir aux modes alternatifs de résolution des litiges (PARTIE II).
Resumo:
Il y a des problemes qui semblent impossible a resoudre sans l'utilisation d'un tiers parti honnete. Comment est-ce que deux millionnaires peuvent savoir qui est le plus riche sans dire a l'autre la valeur de ses biens ? Que peut-on faire pour prevenir les collisions de satellites quand les trajectoires sont secretes ? Comment est-ce que les chercheurs peuvent apprendre les liens entre des medicaments et des maladies sans compromettre les droits prives du patient ? Comment est-ce qu'une organisation peut ecmpecher le gouvernement d'abuser de l'information dont il dispose en sachant que l'organisation doit n'avoir aucun acces a cette information ? Le Calcul multiparti, une branche de la cryptographie, etudie comment creer des protocoles pour realiser de telles taches sans l'utilisation d'un tiers parti honnete. Les protocoles doivent etre prives, corrects, efficaces et robustes. Un protocole est prive si un adversaire n'apprend rien de plus que ce que lui donnerait un tiers parti honnete. Un protocole est correct si un joueur honnete recoit ce que lui donnerait un tiers parti honnete. Un protocole devrait bien sur etre efficace. Etre robuste correspond au fait qu'un protocole marche meme si un petit ensemble des joueurs triche. On demontre que sous l'hypothese d'un canal de diusion simultane on peut echanger la robustesse pour la validite et le fait d'etre prive contre certains ensembles d'adversaires. Le calcul multiparti a quatre outils de base : le transfert inconscient, la mise en gage, le partage de secret et le brouillage de circuit. Les protocoles du calcul multiparti peuvent etre construits avec uniquements ces outils. On peut aussi construire les protocoles a partir d'hypoth eses calculatoires. Les protocoles construits a partir de ces outils sont souples et peuvent resister aux changements technologiques et a des ameliorations algorithmiques. Nous nous demandons si l'efficacite necessite des hypotheses de calcul. Nous demontrons que ce n'est pas le cas en construisant des protocoles efficaces a partir de ces outils de base. Cette these est constitue de quatre articles rediges en collaboration avec d'autres chercheurs. Ceci constitue la partie mature de ma recherche et sont mes contributions principales au cours de cette periode de temps. Dans le premier ouvrage presente dans cette these, nous etudions la capacite de mise en gage des canaux bruites. Nous demontrons tout d'abord une limite inferieure stricte qui implique que contrairement au transfert inconscient, il n'existe aucun protocole de taux constant pour les mises en gage de bit. Nous demontrons ensuite que, en limitant la facon dont les engagements peuvent etre ouverts, nous pouvons faire mieux et meme un taux constant dans certains cas. Ceci est fait en exploitant la notion de cover-free families . Dans le second article, nous demontrons que pour certains problemes, il existe un echange entre robustesse, la validite et le prive. Il s'effectue en utilisant le partage de secret veriable, une preuve a divulgation nulle, le concept de fantomes et une technique que nous appelons les balles et les bacs. Dans notre troisieme contribution, nous demontrons qu'un grand nombre de protocoles dans la litterature basee sur des hypotheses de calcul peuvent etre instancies a partir d'une primitive appelee Transfert Inconscient Veriable, via le concept de Transfert Inconscient Generalise. Le protocole utilise le partage de secret comme outils de base. Dans la derniere publication, nous counstruisons un protocole efficace avec un nombre constant de rondes pour le calcul a deux parties. L'efficacite du protocole derive du fait qu'on remplace le coeur d'un protocole standard par une primitive qui fonctionne plus ou moins bien mais qui est tres peu couteux. On protege le protocole contre les defauts en utilisant le concept de privacy amplication .