940 resultados para Bonne foi
Resumo:
Un certain nombre de théories pédagogiques ont été établies depuis plus de 20 ans. Elles font appel aux réactions de l’apprenant en situation d’apprentissage, mais aucune théorie pédagogique n’a pu décrire complètement un processus d’enseignement en tenant compte de toutes les réactions émotionnelles de l’apprenant. Nous souhaitons intégrer les émotions de l’apprenant dans ces processus d’apprentissage, car elles sont importantes dans les mécanismes d’acquisition de connaissances et dans la mémorisation. Récemment on a vu que le facteur émotionnel est considéré jouer un rôle très important dans les processus cognitifs. Modéliser les réactions émotionnelles d’un apprenant en cours du processus d’apprentissage est une nouveauté pour un Système Tutoriel Intelligent. Pour réaliser notre recherche, nous examinerons les théories pédagogiques qui n’ont pas considéré les émotions de l’apprenant. Jusqu’à maintenant, aucun Système Tutoriel Intelligent destiné à l’enseignement n’a incorporé la notion de facteur émotionnel pour un apprenant humain. Notre premier objectif est d’analyser quelques stratégies pédagogiques et de détecter les composantes émotionnelles qui peuvent y être ou non. Nous cherchons à déterminer dans cette analyse quel type de méthode didactique est utilisé, autrement dit, que fait le tuteur pour prévoir et aider l’apprenant à accomplir sa tâche d’apprentissage dans des conditions optimales. Le deuxième objectif est de proposer l’amélioration de ces méthodes en ajoutant les facteurs émotionnels. On les nommera des « méthodes émotionnelles ». Le dernier objectif vise à expérimenter le modèle d’une théorie pédagogique améliorée en ajoutant les facteurs émotionnels. Dans le cadre de cette recherche nous analyserons un certain nombre de théories pédagogiques, parmi lesquelles les théories de Robert Gagné, Jerome Bruner, Herbert J. Klausmeier et David Merrill, pour chercher à identifier les composantes émotionnelles. Aucune théorie pédagogique n’a mis l’accent sur les émotions au cours du processus d’apprentissage. Ces théories pédagogiques sont développées en tenant compte de plusieurs facteurs externes qui peuvent influencer le processus d’apprentissage. Nous proposons une approche basée sur la prédiction d’émotions qui est liée à de potentielles causes déclenchées par différents facteurs déterminants au cours du processus d’apprentissage. Nous voulons développer une technique qui permette au tuteur de traiter la réaction émotionnelle de l’apprenant à un moment donné au cours de son processus d’apprentissage et de l’inclure dans une méthode pédagogique. Pour atteindre le deuxième objectif de notre recherche, nous utiliserons un module tuteur apprenant basé sur le principe de l’éducation des émotions de l’apprenant, modèle qui vise premièrement sa personnalité et deuxièmement ses connaissances. Si on défini l’apprenant, on peut prédire ses réactions émotionnelles (positives ou négatives) et on peut s’assurer de la bonne disposition de l’apprenant, de sa coopération, sa communication et l’optimisme nécessaires à régler les problèmes émotionnels. Pour atteindre le troisième objectif, nous proposons une technique qui permet au tuteur de résoudre un problème de réaction émotionnelle de l’apprenant à un moment donné du processus d’apprentissage. Nous appliquerons cette technique à une théorie pédagogique. Pour cette première théorie, nous étudierons l’effet produit par certaines stratégies pédagogiques d’un tuteur virtuel au sujet de l’état émotionnel de l’apprenant, et pour ce faire, nous développerons une structure de données en ligne qu’un agent tuteur virtuel peut induire à l’apprenant des émotions positives. Nous analyserons les résultats expérimentaux en utilisant la première théorie et nous les comparerons ensuite avec trois autres théories que nous avons proposées d’étudier. En procédant de la sorte, nous atteindrons le troisième objectif de notre recherche, celui d’expérimenter un modèle d’une théorie pédagogique et de le comparer ensuite avec d’autres théories dans le but de développer ou d’améliorer les méthodes émotionnelles. Nous analyserons les avantages, mais aussi les insuffisances de ces théories par rapport au comportement émotionnel de l’apprenant. En guise de conclusion de cette recherche, nous retiendrons de meilleures théories pédagogiques ou bien nous suggérerons un moyen de les améliorer.
Resumo:
Nigella sativa ou cumin noir est une plante et un condiment populaires. Les graines de N. sativa sont très utilisées en médecine traditionnelle des pays nord africains pour le traitement du diabète. Cependant, les mécanismes d'actions cellulaires et moléculaires via lesquels cette plante exerce son effet euglycémiant restent encore mal compris. Le but de notre étude est d'examiner l’effet de N. sativa sur la sécrétion d’insuline, le transport de glucose et sur les voies de signalisation impliquées dans l’homéostasie et le métabolisme de glucose, en utilisant des essais biologiques sur des cultures cellulaires murines (cellules β pancréatiques βTC, myoblastes C2C12, hépatocytes H4IIE et adipocytes 3T3-L1) et des études in vivo chez le rat normoglycémique et le Meriones shawi (rongeur) diabétique. Chez les cellules β pancréatiques, N. sativa a augmenté leur prolifération ainsi que la sécrétion basale et gluco-stimulée de l’insuline. N. sativa a augmenté aussi la prise de glucose de 50% chez les cellules musculaires alors que chez les cellules graisseuses, la prise de glucose est augmentée jusqu’au 400%. Les expériences d’immunobuvardage de type western ont montré que N. sativa stimule les voies de signalisation de l’insuline (Akt et ERKs) et aussi celle insulino-indépendante (AMPK) chez les cellules C2C12. Par contre, chez les 3T3-L1, l’augmentation de transport de glucose est plutôt reliée à une activation de la voie de peroxisome proliferator activated receptor γ (PPARγ). Chez les hépatocytes, N. sativa augmente la stimulation des protéines intracellulaires Akt et 5' adenosine monophosphate-activated protein kinase (AMPK). Cette activation de l’AMPK est associée à un effet découpleur de la plante au niveau de la phosphorylation oxydative mitochondriale. Par ailleurs, chez les Meriones shawi diabétiques, N. sativa diminue graduellement la glycémie à jeun ainsi que la réponse glycémique (AUC) à une charge orale en glucose (OGTT) pour atteindre des valeurs semblables aux animaux témoins après quatre semaines de traitement. Une amélioration du profile lipidique est observée autant chez les Meriones shawi diabétiques que chez les rats normaux. Au niveau moléculaire, N. sativa augmente le contenu musculaire en glucose transporter 4 Glut4 et la phosphorylation de l’acetyl-coenzyme A carboxylase ACC dans le muscle soléaire et le foie chez les Mériones shawi diabétiques. Par contre, chez le rat normal, on assiste à une stimulation des voies de signalisation de l’insuline (Akt et ERK) au niveau hépatique. En conclusion, nous avons confirmé l’action insulinotropique de N. sativa au niveau des cellules β pancréatiques et mis en évidence un effet proliférateur pouvant potentiellement s’avérer utile pour contrecarrer la perte de masse cellulaire observée chez les diabétiques. Notre étude a également mis en évidence pour la première fois que N. sativa exerce son activité antidiabétique par une combinaison d’effets insulino-mimétiques et insulino-sensibilisateurs directs permettant ainsi d’augmenter le transport de glucose des tissus périphériques. Cette action de N. sativa est liée à une stimulation des voies de signalisation intracellulaires insulinodépendantes et -indépendantes (AMPK) chez le muscle squelettique et le foie alors qu’elle passe par la voie des PPARγ au niveau du tissu adipeux. Finalement, l’étude in vivo vient confirmer l’effet antidiabétique de N. sativa. Notre apport novateur se situe au niveau de la démonstration que l’activité antidiabétique de N. sativa chez le Meriones shawi diabétique est la résultante des mêmes activités que celles déterminées au niveau de l’étude in vitro. En effet, N. sativa active la voie de l’AMPK, améliore la sensibilité à l’insuline et augmente l’insulinémie. Notre étude montre aussi que N. sativa possède une activité antilipidémiante. Ces résultats confirment le bien-fondé de l'utilisation ethnopharmacologique de N. sativa comme traitement du diabète et des perturbations du métabolisme lipidique qui y sont associées. De plus, les actions pléiotropiques de N. sativa en font un traitement alternatif ou complémentaire du diabète très prometteur qui encouragent à présent la tenue d’études cliniques de bonne qualité.
Resumo:
Au Canada et au Québec, au cours des années 2000, la migration des travailleurs qualifiés originaires d’Amérique du Sud a connu une croissance très rapide. Pourtant, ce flux migratoire et sa composante féminine ne semblent pas avoir fait l’objet d’une lecture sociologique. Ce travail vise à combler quelques lacunes dans ce domaine des connaissances, en examinant le processus d’intégration économique d’immigrantes d’origine sud-américaine arrivées durant cette décennie. L’étude comprend l’analyse de 16 cas de femmes originaires de divers pays d’Amérique du Sud qui ont un diplôme universitaire ou l’équivalent, qui avaient déjà une expérience de travail dans leur pays d’origine et qui possèdent une bonne maîtrise de la langue française. Les questions qui guident cette recherche dépassent l’aspect statistique ou sociodémographique d’un groupe non étudié dans le contexte canadien. Le but principal de ce mémoire consiste à examiner l’importance d’une variété de ressources culturelles et symboliques qui sont déployées tout au long du processus d’intégration socioéconomique par des immigrantes sud-américaines de la catégorie des « travailleurs qualifiés » dans le contexte montréalais. Dans ce but, l’étude analyse comment les ressources acquises dans la société d’origine ont des impacts sur le parcours professionnel de ces femmes, en leur permettant de définir des stratégies d’intégration sur le marché du travail dans la société réceptrice. L’analyse se déploie à partir de la problématisation des facteurs construits socioculturellement comme catégories de structuration et de hiérarchisation qui, selon le contexte, définissent la position sociale et qui, à travers l’expérience, expliquent la position situationnelle des immigrantes sud-américaines. L’accès, l’utilisation et la mobilisation des ressources pour définir des stratégies d’intégration socioprofessionnelle sont analysés à partir de quatre axes : l’expérience, la dimension intersubjective, le contexte institutionnel et organisationnel, et finalement, la dimension représentationnelle.
Resumo:
Il est reconnu que le benzène, le toluène, l’éthylbenzène et les isomères du xylène, composés organiques volatils (COVs) communément désignés BTEX, produisent des effets nocifs sur la santé humaine et sur les végétaux dépendamment de la durée et des niveaux d’exposition. Le benzène en particulier est classé cancérogène et une exposition à des concentrations supérieures à 64 g/m3 de benzène peut être fatale en 5–10 minutes. Par conséquent, la mesure en temps réel des BTEX dans l’air ambiant est essentielle pour détecter rapidement un danger associé à leur émission dans l’air et pour estimer les risques potentiels pour les êtres vivants et pour l’environnement. Dans cette thèse, une méthode d’analyse en temps réel des BTEX dans l’air ambiant a été développée et validée. La méthode est basée sur la technique d’échantillonnage direct de l’air couplée avec la spectrométrie de masse en tandem utilisant une source d’ionisation chimique à pression atmosphérique (APCI-MS/MS directe). La validation analytique a démontré la sensibilité (limite de détection LDM 1–2 μg/m3), la précision (coefficient de variation CV < 10%), l’exactitude (exactitude > 95%) et la sélectivité de la méthode. Des échantillons d’air ambiant provenant d’un site d’enfouissement de déchets industriels et de divers garages d’entretien automobile ont été analysés par la méthode développée. La comparaison des résultats avec ceux obtenus par la technique de chromatographie gazeuse on-line couplée avec un détecteur à ionisation de flamme (GC-FID) a donné des résultats similaires. La capacité de la méthode pour l’évaluation rapide des risques potentiels associés à une exposition aux BTEX a été prouvée à travers une étude de terrain avec analyse de risque pour la santé des travailleurs dans trois garages d’entretien automobile et par des expériences sous atmosphères simulées. Les concentrations mesurées dans l’air ambiant des garages étaient de 8,9–25 µg/m3 pour le benzène, 119–1156 µg/m3 pour le toluène, 9–70 µg/m3 pour l’éthylbenzène et 45–347 µg/m3 pour les xylènes. Une dose quotidienne environnementale totale entre 1,46 10-3 et 2,52 10-3 mg/kg/jour a été déterminée pour le benzène. Le risque de cancer lié à l’exposition environnementale totale au benzène estimé pour les travailleurs étudiés se situait entre 1,1 10-5 et 1,8 10-5. Une nouvelle méthode APCI-MS/MS a été également développée et validée pour l’analyse directe de l’octaméthylcyclotétrasiloxane (D4) et le décaméthylcyclopentasiloxane (D5) dans l’air et les biogaz. Le D4 et le D5 sont des siloxanes cycliques volatils largement utilisés comme solvants dans les processus industriels et les produits de consommation à la place des COVs précurseurs d’ozone troposphérique tels que les BTEX. Leur présence ubiquitaire dans les échantillons d’air ambiant, due à l’utilisation massive, suscite un besoin d’études de toxicité. De telles études requièrent des analyses qualitatives et quantitatives de traces de ces composés. Par ailleurs, la présence de traces de ces substances dans un biogaz entrave son utilisation comme source d’énergie renouvelable en causant des dommages coûteux à l’équipement. L’analyse des siloxanes dans un biogaz s’avère donc essentielle pour déterminer si le biogaz nécessite une purification avant son utilisation pour la production d’énergie. La méthode développée dans cette étude possède une bonne sensibilité (LDM 4–6 μg/m3), une bonne précision (CV < 10%), une bonne exactitude (> 93%) et une grande sélectivité. Il a été également démontré qu’en utilisant cette méthode avec l’hexaméthyl-d18-disiloxane comme étalon interne, la détection et la quantification du D4 et du D5 dans des échantillons réels de biogaz peuvent être accomplies avec une meilleure sensibilité (LDM ~ 2 μg/m3), une grande précision (CV < 5%) et une grande exactitude (> 97%). Une variété d’échantillons de biogaz prélevés au site d’enfouissement sanitaire du Complexe Environnemental de Saint-Michel à Montréal a été analysée avec succès par cette nouvelle méthode. Les concentrations mesurées étaient de 131–1275 µg/m3 pour le D4 et 250–6226 µg/m3 pour le D5. Ces résultats représentent les premières données rapportées dans la littérature sur la concentration des siloxanes D4 et D5 dans les biogaz d’enfouissement en fonction de l’âge des déchets.
Resumo:
Ce mémoire aborde la question de la responsabilité précontractuelle en regardant son incidence en droit québécois ainsi qu'en droit international. Plus précisément, il s'agit de savoir comment est traitée la rupture des négociations lorsqu'aucun avant-contrat n'a été rédigé à cet effet. Afin de pouvoir déterminer ses grands paramètres, le texte aborde dans un premier temps la nature de cette responsabilité. N'étant pas codifiée en droit québécois et ne faisant l'objet d'aucune spécification dans les grands instruments internationaux, cette nature doit être associée à l'un des deux grands régimes de responsabilité soit: contractuel ou extracontractuel. L'importance de cette détermination n'est pas simplement théorique puisqu'elle a une influence directe sur plusieurs éléments comme la prescription ou le droit international privé. Au Québec, la doctrine et la jurisprudence ont choisi d'associer la responsabilité précontractuelle au domaine extracontractuel. Ainsi, elle devra suivre le modèle classique de faute, dommage et lien causal. Cependant, en droit international, la question de la nature reste encore nébuleuse compte tenu de la diversité des membres qui composent les comités d'élaboration des normes. Tous s'entendent pourtant sur un concept fondamental entourant la responsabilité précontractuelle : la bonne foi. Elle est au centre de la faute et dicte une éthique des pourparlers. Ainsi, dans un deuxième temps, la mise en œuvre de la responsabilité est abordée. De cette notion de bonne foi découlent de nombreux devoirs que les parties négociantes se doivent de respecter. Ils sont de création jurisprudentielle et demandent une étude au cas par cas. La liberté contractuelle étant le principe de base dans la formation des contrats, les tribunaux québécois sanctionnent rarement les cas de rupture des négociations. C'est ce principe de liberté qui empêche les pays de common law d'accepter le concept de bonne foi et de responsabilité précontractuelle, même s'ils sanctionnent, par l'intermédiaire de mécanismes, les comportements fautifs dans les pourparlers. Finalement, les dommages et les intérêts pouvant être réclamés varient. Au Québec et en France, autant les pertes subies que les gains manqués sont indemnisés tandis que les instruments internationaux sont plus réticents pour accorder un montant pour le gain manqué. Bref, la responsabilité précontractuelle est en pleine construction et son utilisation devant les tribunaux est encore peu fréquente.
Resumo:
Réalisé en cotutelle avec le Centre de recherches politiques Raymond Aron de l'Ecole des Hautes Etudes en Sciences Sociales (EHESS) de Paris, pour un doctorat en études politiques.
Resumo:
Ce travail a été réalisé avec l'appui du Centre Collaborateur de l'OMS sur la Transition Nutritionnelle et le Développement (TRANSNUT) de l'Université de Montréal, en collaboration avec deux parténaires du Bénin: l'Institut de Sciences Biomédicales Appliquées (ISBA) de Cotonou et l'Institut Régional de Santé Publique de Ouidah.
Resumo:
This paper proposes a theory of the good life for use in answering the question how much money the rich should spend on fighting poverty. The paper moves from the abstract to the concrete. To begin with, it investigates various ways to get an answer to the question what is good, and finds itself drawn to objective theories of the good. It then develops, taking Bernard Williams and Martha Nussbaum as its guides, a broad outline of a theory of the good. It holds that something evil happens to people if they do not have a real choice from a reasonable number of projects that realize most of their key capacities to a certain degree, and in connection to this it points to the great importance of money. The paper goes on specifically to consider what criticisms of Nussbaum's version of the capability approach are implied in this outline of a theory of the good. Next, it gets more specific and asks how much money the rich can give -and how they can be restricted in spending their money- without suffering any evil. It does three suggestions: the tithe suggestion, the ecological (or footprint) suggestion, and the fair trade suggestion. To conclude, the paper returns to the question how much money the rich should spend on fighting poverty.
Resumo:
Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau.
Resumo:
Comment conseiller l’action ? En la pensant bien et totalement pour qu’elle soit bonne et juste, dit-on, puisque conforme à la raison. La pensée de l’acte s’impose d’elle-même au sujet de l’action comme allant de soi, assurée de réussir, effective et efficace. Qui peut ainsi assigner au sujet rationnel la nécessité de son acte ? Le maître-penseur qu’est le théoricien de l’action. Cette figure de conseiller-philosophe de l’action est-elle constitutive de toute pensée de l’action ? Peut-on échapper à cette assimilation du sujet de l’action et de la pensée de l’acte qui transforme le conseil en ordre ? L’auteur examine les éléments philosophiques de cette illusion du conseil. L’analyse proudhonienne du travail industriel ne fournit-elle pas un moyen de surmonter cet obstacle épistémologique ?
Resumo:
La trajectoire philosophique de Tadeusz Kotarbinski se caractérise avant tout par un caractère complet de ses recherches. Intéressé dès le début de son travail aux questions d’éthique, il jugea nécessaire de se consacrer d’abord aux problèmes du langage et de l’action. Il fut alors convaincu qu’une bonne théorie de l’action constitue un point de départ nécessaire pour toute philosophie future – sans comprendre l’action, nous ne pouvons pas comprendre ce qui en découle. Le présent article tente d’esquisser les difficultés de cette théorie que Kotarbinski a qualifié de « praxéologie » et de comparer la démarche de l’auteur polonais au travail d’un autre praxéologue important, Ludwig von Mises.
Resumo:
L’utilisation continue de corticostéroïdes inhalés est reconnue pour réduire le nombre d’hospitalisations, la morbidité ainsi que les décès liés à l’asthme. Cependant, l’observance à cette médication chez les enfants asthmatiques demeure sous-optimale. Objectif : L’objectif général de ce mémoire de maîtrise est d’identifier les déterminants de l’observance aux corticostéroïdes inhalés durant les 28 jours suivant une visite médicale d’urgence en raison d’une une exacerbation d’asthme. Méthodologie : Il s’agit d’une analyse de données secondaires provenant d’un essai randomisé conduit auprès de patients se présentant dans un département d’urgence pour une exacerbation d’asthme. L’utilisation de corticostéroïdes inhalés au cours des 28 jours suivant la visite à l’urgence a été mesurée à l’aide de compteurs de doses électroniques. Résultats : Deux cent onze enfants ont été inclus dans les analyses et 76,8% étaient âgés de moins de 7 ans. L’observance moyenne au cours des 28 jours suivant la visite à l’urgence était de 62% (±29%). Les déterminants associés à une meilleure observance étaient une durée de traitement prescrite plus courte, une scolarité maternelle universitaire, une plus grande consommation de médication de soulagement rapide, une crise d’asthme plus sévère, un plus jeune âge de l’enfant et être Caucasien. Conclusion : Cette étude se distingue par le fait qu’elle inclut une large proportion d’enfants d’âge préscolaire, une population d’asthmatiques sous-représentée dans la littérature médicale malgré sa morbidité élevée. Une prescription de corticostéroïdes inhalés de courte durée s’est avérée être le meilleur prédicteur d’une bonne observance et témoigne d’une pratique en milieu hospitalier qui va à l’encontre des lignes directrices en matière de gestion de l’asthme.
Resumo:
Tantôt nié dans son principe même, tantôt proclamé comme un droit sacré et inaliénable de l'homme, le droit de résistance à l'oppression a, depuis sa proclamation pour la première fois dans la Déclaration des droits de l'homme et du citoyen du 26 août 1789, continuellement suscité des débats quant à sa nature et la légitimité de son exercice. De façon générale, ce mémoire vise à exposer les origines du droit de résistance à l'oppression, et sa consécration normative au niveau international. Il s'agit de trouver des fondements justifiant et légalisant le recours à la résistance dans toutes ses formes, lorsque confronté à une oppression d'origine étatique. Ces fondements pourront être retracés chez les philosophes du Moyen-âge et de la renaissance qui ont consacré un droit naturel de résistance à l'homme, supérieur au droit positif. En faisant appel aux notions de justice et d'humanité, cette notion de droit naturel a contribué à la légitimation du concept de résistance dans la relation du peuple avec son souverain. Nous retrouvons d'ailleurs cette idée dans le cadre du droit international contemporain à travers la protection accordée à certains droits tels les droit des minorités et le droit des peuples à l'autodétermination. Malgré cela, on constate toutefois l'absence d'une consécration expresse d' «un droit de résistance à l'oppression» au niveau international. Le droit de résistance à l'oppression demeure un droit difficile à positiver dans le cadre d'un droit international qui se présente avant tout comme un droit de consolidation de la souveraineté des États, et dans un système où la mise en œuvre des droits repose sur la bonne volonté de ces derniers.
Resumo:
Des études ont observé que le statut socio-économique (SSE) est inversement associé avec le risque de cancer du poumon. Cette thèse approfondit différents aspects de la relation entre le SSE et le risque de cancer du poumon afin de contribuer à la compréhension des facteurs influençant le risque de cette maladie. Son objectif général consiste à étudier les associations entre le SSE et le risque de cancer du poumon en fonction à la fois : 1) de l’indicateur du SSE ; 2) des types d’ajustement pour le tabagisme, et ; 3) des facteurs de risque intermédiares potentiels de l’association entre le SSE et le cancer du poumon. Les données d’une vaste étude cas-témoins menée à Montréal entre 1996 et 2002 et portant sur l’identification de facteurs environnementaux impliqués dans l’étiologie du cancer du poumon ont été utilisées. L’échantillon analysé était constitué de 1203 cas (738 hommes et 465 femmes) diagnostiqués en 1996-1997 dans les 18 principaux hôpitaux du Grand Montréal et 1513 témoins (899 hommes et 614 femmes). Les témoins, recrutés au hasard à partir de la liste électorale, ont été appariés aux cas selon l’âge, le sexe et le district électoral. Les sujets ont été interviewés afin de colliger de l’information entre autres sur les caractéristiques sociodémographiques et économiques, les habitudes de tabagisme, l‘histoire professionnelle et l’alimentation. Une collecte de données additionnelle a été effectuée spécifiquement pour la présente thèse. En effet, l’évaluation foncière de la résidence correspondant à l’adresse de chacun des sujets à l’entrevue a été obtenue à partir des bases de données publiques de la ville de Montréal. Le premier article portait sur la comparaison de différents indices de disponibilité financière chacun en 5 catégories: un indice de valeur résidentielle, le revenu médian issu des données du recensement et le revenu familial auto-rapporté. En comparant au revenu familial auto-rapporté, une très bonne concordance a été obtenue pour 73% et 64% des individus respectivement pour l’indice de valeur résidentielle et le revenu du recensement. Le Kappa pondéré était plus élevé pour la comparaison du revenu familial auto-rapporté avec l’indice de valeur résidentielle (Kappap=0.36, IC 95%: 0.31-0.40) qu’avec le revenu médian issu du recensement (Kappap=0.22, IC 95%: 0.17-0.27). Le choix d’un indice dépend toutefois des objectifs et de la faisabilité de son utilisation dans la population étudiée. Le deuxième article présentait les associations entre les trois indices de disponibilité financière et le risque de cancer du poumon. Les fortes associations observées initialement sont disparues après un ajustement pour plusieurs dimensions du tabagisme. Ce dernier jouait un rôle de grande importance dans la relation entre le SSE et le risque de cancer du poumon. Finalement, les facteurs de risque intermédiares des associations entre trois différentes dimensions du SSE – éducation, revenu, classe professionnelle – ont été étudiés. Les résultats ont suggéré que les 3 facteurs de risque intermédiares potentiels étudiés: tabagisme, consommation de fruits et légumes riches en caroténoïdes, expositions professionnelles avaient un effet médiateur indépendant dans la relation entre le SSE et le cancer du poumon. Le plus important médiateur était le tabagisme, suivi de l’alimentation et à un degré moindre, les expositions professionnelles. Il nous paraît particulièrement pertinent d‘évaluer différents indicateurs du SSE lorsque possible, et d’effectuer un ajustement détaillé pour le tabagisme lorsque la relation entre le SSE et le risque de cancer du poumon est étudiée. Une bonne connaissance et la prise en compte des facteurs de risque intermédiares sont essentielles à la formulation des mesures de prévention du cancer du poumon.
Resumo:
Les avancés dans le domaine de l’intelligence artificielle, permettent à des systèmes informatiques de résoudre des tâches de plus en plus complexes liées par exemple à la vision, à la compréhension de signaux sonores ou au traitement de la langue. Parmi les modèles existants, on retrouve les Réseaux de Neurones Artificiels (RNA), dont la popularité a fait un grand bond en avant avec la découverte de Hinton et al. [22], soit l’utilisation de Machines de Boltzmann Restreintes (RBM) pour un pré-entraînement non-supervisé couche après couche, facilitant grandement l’entraînement supervisé du réseau à plusieurs couches cachées (DBN), entraînement qui s’avérait jusqu’alors très difficile à réussir. Depuis cette découverte, des chercheurs ont étudié l’efficacité de nouvelles stratégies de pré-entraînement, telles que l’empilement d’auto-encodeurs traditionnels(SAE) [5, 38], et l’empilement d’auto-encodeur débruiteur (SDAE) [44]. C’est dans ce contexte qu’a débuté la présente étude. Après un bref passage en revue des notions de base du domaine de l’apprentissage machine et des méthodes de pré-entraînement employées jusqu’à présent avec les modules RBM, AE et DAE, nous avons approfondi notre compréhension du pré-entraînement de type SDAE, exploré ses différentes propriétés et étudié des variantes de SDAE comme stratégie d’initialisation d’architecture profonde. Nous avons ainsi pu, entre autres choses, mettre en lumière l’influence du niveau de bruit, du nombre de couches et du nombre d’unités cachées sur l’erreur de généralisation du SDAE. Nous avons constaté une amélioration de la performance sur la tâche supervisée avec l’utilisation des bruits poivre et sel (PS) et gaussien (GS), bruits s’avérant mieux justifiés que celui utilisé jusqu’à présent, soit le masque à zéro (MN). De plus, nous avons démontré que la performance profitait d’une emphase imposée sur la reconstruction des données corrompues durant l’entraînement des différents DAE. Nos travaux ont aussi permis de révéler que le DAE était en mesure d’apprendre, sur des images naturelles, des filtres semblables à ceux retrouvés dans les cellules V1 du cortex visuel, soit des filtres détecteurs de bordures. Nous aurons par ailleurs pu montrer que les représentations apprises du SDAE, composées des caractéristiques ainsi extraites, s’avéraient fort utiles à l’apprentissage d’une machine à vecteurs de support (SVM) linéaire ou à noyau gaussien, améliorant grandement sa performance de généralisation. Aussi, nous aurons observé que similairement au DBN, et contrairement au SAE, le SDAE possédait une bonne capacité en tant que modèle générateur. Nous avons également ouvert la porte à de nouvelles stratégies de pré-entraînement et découvert le potentiel de l’une d’entre elles, soit l’empilement d’auto-encodeurs rebruiteurs (SRAE).