985 resultados para Méthode de la frontière immergée


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Contexte : La détérioration de l’état nutritionnel liée à la perte d’autonomie qui accompagne l’évolution de la démence du type Alzheimer (DTA) peut être limitée par un proche aidant efficace. À long terme, le rôle soignant du proche aidant peut affecter sa propre santé physique et psychologique. Objectifs : (1) décrire les caractéristiques sociodémographiques des patients et de leurs proches aidants; (2) examiner l’évolution de la maladie et des variables à l’étude au cours de la période de suivi; (3) explorer la relation possible entre le fardeau perçu du proche aidant, l’état nutritionnel des patients et la stabilité du poids corporel du proche aidant. Hypothèses : L’absence du fardeau chez l’aidant est associée à un meilleur état nutritionnel chez le patient; la détérioration de la fonction cognitive chez le patient s’accompagne d’une augmentation du fardeau perçu par l’aidant; la dégradation du fardeau chez l’aidant conduit à sa perte de poids. Méthode : Les données analysées proviennent de l’étude « Nutrition-mémoire » menée entre 2003 et 2006 dans les trois cliniques de cognition situées dans des hôpitaux universitaires à Montréal. Quarante-deux patients avec une DTA probable vivant dans la communauté et leurs aidants ont été suivis en dyades pendant une période de dix-huit mois. Les analyses ont porté sur les données colligées du recrutement à douze mois plus tard en raison du nombre restreint des patients interviewés à la dernière mesure. La relation entre le fardeau de l’aidant et les variables caractérisant l’état nutritionnel chez les patients a été évaluée à l’aide des analyses de corrélations, du test khi-carré ou du test de Fisher. L’état cognitif des patients était évalué à l’aide du score au Mini-Mental State Examination, le fardeau de l’aidant était estimé par le score au « Zarit Burden Interview », l’état nutritionnel des patients était défini par la suffisance en énergie et en protéines, le score à l’outil de dépistage nutritionnel des aînés, le poids et l’indice de masse corporelle des patients. Résultats : Le fardeau perçu des aidants était associé à la suffisance en énergie chez les patients. Le nombre de patients ayant des apports insuffisants en énergie était plus important chez les dyades où les aidants percevaient un fardeau plus élevé. Toutefois, aucune association n’a été observée entre le fardeau des aidants et le risque nutritionnel ou la suffisance en protéines chez les patients. La détérioration de la fonction cognitive des patients ne semble pas avoir provoqué une augmentation du fardeau chez leurs aidants. De plus, l’augmentation du fardeau de l’aidant n’était pas accompagnée d’une perte de son poids corporel. Par ailleurs, un fardeau plus important a été observé chez les aidants des patients obèses ou présentant un embonpoint. Conclusion : La réduction du fardeau perçu des aidants permettrait d’améliorer les apports alimentaires des patients et ainsi de limiter ou minimiser le risque de détérioration de leur état nutritionnel et de perte de poids.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le développement d’un médicament est non seulement complexe mais les retours sur investissment ne sont pas toujours ceux voulus ou anticipés. Plusieurs médicaments échouent encore en Phase III même avec les progrès technologiques réalisés au niveau de plusieurs aspects du développement du médicament. Ceci se traduit en un nombre décroissant de médicaments qui sont commercialisés. Il faut donc améliorer le processus traditionnel de développement des médicaments afin de faciliter la disponibilité de nouveaux produits aux patients qui en ont besoin. Le but de cette recherche était d’explorer et de proposer des changements au processus de développement du médicament en utilisant les principes de la modélisation avancée et des simulations d’essais cliniques. Dans le premier volet de cette recherche, de nouveaux algorithmes disponibles dans le logiciel ADAPT 5® ont été comparés avec d’autres algorithmes déjà disponibles afin de déterminer leurs avantages et leurs faiblesses. Les deux nouveaux algorithmes vérifiés sont l’itératif à deux étapes (ITS) et le maximum de vraisemblance avec maximisation de l’espérance (MLEM). Les résultats de nos recherche ont démontré que MLEM était supérieur à ITS. La méthode MLEM était comparable à l’algorithme d’estimation conditionnelle de premier ordre (FOCE) disponible dans le logiciel NONMEM® avec moins de problèmes de rétrécissement pour les estimés de variances. Donc, ces nouveaux algorithmes ont été utilisés pour la recherche présentée dans cette thèse. Durant le processus de développement d’un médicament, afin que les paramètres pharmacocinétiques calculés de façon noncompartimentale soient adéquats, il faut que la demi-vie terminale soit bien établie. Des études pharmacocinétiques bien conçues et bien analysées sont essentielles durant le développement des médicaments surtout pour les soumissions de produits génériques et supergénériques (une formulation dont l'ingrédient actif est le même que celui du médicament de marque, mais dont le profil de libération du médicament est différent de celui-ci) car elles sont souvent les seules études essentielles nécessaires afin de décider si un produit peut être commercialisé ou non. Donc, le deuxième volet de la recherche visait à évaluer si les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte pour un individu pouvaient avoir une incidence sur les conclusions d’une étude de bioéquivalence et s’ils devaient être soustraits d’analyses statistiques. Les résultats ont démontré que les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte influençaient de façon négative les résultats si ceux-ci étaient maintenus dans l’analyse de variance. Donc, le paramètre de surface sous la courbe à l’infini pour ces sujets devrait être enlevé de l’analyse statistique et des directives à cet effet sont nécessaires a priori. Les études finales de pharmacocinétique nécessaires dans le cadre du développement d’un médicament devraient donc suivre cette recommandation afin que les bonnes décisions soient prises sur un produit. Ces informations ont été utilisées dans le cadre des simulations d’essais cliniques qui ont été réalisées durant la recherche présentée dans cette thèse afin de s’assurer d’obtenir les conclusions les plus probables. Dans le dernier volet de cette thèse, des simulations d’essais cliniques ont amélioré le processus du développement clinique d’un médicament. Les résultats d’une étude clinique pilote pour un supergénérique en voie de développement semblaient très encourageants. Cependant, certaines questions ont été soulevées par rapport aux résultats et il fallait déterminer si le produit test et référence seraient équivalents lors des études finales entreprises à jeun et en mangeant, et ce, après une dose unique et des doses répétées. Des simulations d’essais cliniques ont été entreprises pour résoudre certaines questions soulevées par l’étude pilote et ces simulations suggéraient que la nouvelle formulation ne rencontrerait pas les critères d’équivalence lors des études finales. Ces simulations ont aussi aidé à déterminer quelles modifications à la nouvelle formulation étaient nécessaires afin d’améliorer les chances de rencontrer les critères d’équivalence. Cette recherche a apporté des solutions afin d’améliorer différents aspects du processus du développement d’un médicament. Particulièrement, les simulations d’essais cliniques ont réduit le nombre d’études nécessaires pour le développement du supergénérique, le nombre de sujets exposés inutilement au médicament, et les coûts de développement. Enfin, elles nous ont permis d’établir de nouveaux critères d’exclusion pour des analyses statistiques de bioéquivalence. La recherche présentée dans cette thèse est de suggérer des améliorations au processus du développement d’un médicament en évaluant de nouveaux algorithmes pour des analyses compartimentales, en établissant des critères d’exclusion de paramètres pharmacocinétiques (PK) pour certaines analyses et en démontrant comment les simulations d’essais cliniques sont utiles.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’autophagie est un processus cellulaire catabolique qui a été conservé durant l’évolution de la levure à l’homme. Cet important mécanisme consiste en une dégradation des composants cytoplasmiques dans une structure lytique, le lysosome. Il existe trois types de l’autophagie : la microautophagie, l’autophagie médiée par les chaperones et la macroautophagie nommée « autophagie ». Il a été démontré que lors de l’autophagie, le matériel cytoplasmique (protéines cytosoliques et organites) est séquestré dans l’autophagosome qui finit par fusionner avec le lysosome, formant ainsi l’autophagolysosome. Le matériel séquestré et la membrane interne de l’autophagosome seront dégradés par les hydrolases lysosomales. Plusieurs études se sont focalisées sur la détermination de la machinerie moléculaire et les mécanismes de l’autophagie. Il a été démontré l’implication de 31 molécules Atg essentielles dans le processus de l’autophagie. L’identification de ces protéines a permis de déceler le rôle de l’autophagie non seulement dans le maintien de l’homéostasie cellulaire mais aussi dans la défense contre les agents pathogènes. En effet, l’autophagie joue un rôle important dans l’immunité innée conduisant à contrôler l’évasion des pathogènes dont les bactéries et les virus. Également, l’autophagie est impliquée dans l’immunité adaptative en favorisant la présentation des antigènes viraux par le CMH de classe II aux cellules T CD4+. De plus, une étude récente suggère que l’autophagie contribue à la présentation antigénique par le CMH de classe I aux cellules T CD8+ durant une infection virale par le virus HSV-1 (Herpes simplex type 1). Toutefois, certains virus y compris HSV-1 ont pu développer des mécanismes pour contourner et inhiber en partie le rôle protecteur de l’autophagie. Récemment, une étude dans notre laboratoire a mis en évidence, lors d’une infection virale par HSV-1 des cellules macrophages BMA, la présence d’une nouvelle structure autophagique dans une phase tardive de l’infection. Cette nouvelle structure est différente des autophagosomes classiques à double membrane et est caractérisée morphologiquement par quatre membranes dérivées de l’enveloppe nucléaire interne et externe. Peu de choses ont été rapportées sur cette nouvelle voie autophagique qui peut être un mécanisme de défense cellulaire quand l’autophagie classique dans le cytosol est inhibée par HSV-1. Il devient donc intéressant de caractériser les molécules impliquées dans la formation de ces autophagosomes issus du noyau par spectrométrie de masse. Pour ce faire, il était impératif d’établir un outil d’isolation des noyaux à partir de macrophages infectés par HSV-1 dans lesquels les autophagosomes issus des noyaux seront formés. La validation de cette méthode d’isolation a été effectuée en déterminant la pureté et l’intégrité des noyaux isolés à partir des cellules non infectées (contrôle) et infectées par HSV-1. La pureté des préparations de noyaux isolés a été caractérisée par l’absence de contaminants cellulaires et un enrichissement en noyaux. Également, il a fallu déterminer la cinétique de formation des autophagosomes issus des noyaux pour les deux lignées cellulaires de macrophages utilisées dans ce projet. Dans une perspective future, l’analyse protéomique à partir des échantillons purs des noyaux isolés (non infectés et infectés) mènera à identifier les protéines impliquées dans la formation des autophagosomes dérivés des noyaux, ce qui permettra ultérieurement d’effectuer des études sur les mécanismes moléculaires et les fonctions de cette nouvelle voie autophagique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Objectif : Évaluer les effets sur la croissance des maxillaires, ainsi que les effets dentaires, de l'utilisation du Forsus versus celle des élastiques de classe II. Matériel et méthode : Un échantillon de 30 patients a été traité sans extraction et a eu une phase d'alignement préliminaire avec appareillage orthodontique fixe complet. Vingt-trois (23) patients (14 filles, 9 garçons) ont été traités à l'aide de Forsus (âge moyen : 13,4 ans) et 7 patients (4 filles, 3 garçons) ont été traités avec des élastiques de classe II (âge moyen : 14,3 ans). Une radiographie céphalométrique a été prise à la fin de la phase d'alignement, juste avant la mise en place de l'appareil myofonctionnel choisi, et une autre au moment de l'enlèvement de l'appareil (temps de port moyen : 0,5 an). Les radiographies ont ensuite été tracées à l'aveugle et 17 mesures ont été sélectionnées pour évaluer l'effet des appareils sur les maxillaires (ANS-PNS, SNA, SNB, ANB, Go-Pg, Ar-Go, Co-Gn, axe Y, Ar-Gn, Ar-Go-Me, FMA, POF/FH, PP/FH, B-Pg(PM), 1/-FH, 1/-/1, /1-PM). Un questionnaire pour évaluer le confort face à leur appareil a été remis aux patients à environ la moitié du temps de port estimé. Résultats : Il n'y a aucune différence statistiquement significative entre les deux traitements sur la croissance du maxillaire (ANS-PNS p = 0,93, SNA p = 0,12). De façon générale, il n'y a pas non plus de différence significative entre les deux traitements sur la croissance de la mandibule (Ar-Gn p = 0,03, SNB p = 0,02 et pour les 6 autres mesures p > 0,05). Pour la composante dento-alvéolaire, les deux traitements proclinent les incisives inférieures et rétroclinent les incisives supérieures, le Forsus causant une plus forte rétroclinaison des incisives supérieures (1/-FH p = 0,007, /1-PM p = 0,10). Pour les changements angulaires des plans, le Forsus cause de manière significative une augmentation de l’inclinaison du plan occlusal (POF/FH p = 0,001). Pour le questionnaire sur l'évaluation du confort, il n'y a pas de différence entre les deux traitements en ce qui concerne la gêne face aux activités quotidiennes (p = 0,19). L'hygiène est plus facile avec les élastiques (p = 0,03). Le sommeil n’est perturbé par aucun des appareils (p =0,76). La différence entre le groupe «élastiques» et le groupe «Forsus» pour le confort en général n'est pas significative (p = 0,08). Conclusions : Le but de l’étude étant de vérifier l’efficacité des élastiques de classe II bien portés versus celle des Forsus, on peut conclure que leurs effets sont relativement similaires sur les maxillaires. Cependant, le Forsus cause de manière statistiquement significative une augmentation de l'angle du plan occlusal et une rétroclinaison plus importante des incisives supérieures.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Objectifs : Étudier l’incidence de la dépendance à l’alcool ou aux drogues chez les étudiants exposés à la fusillade du Collège Dawson dans les 18 mois suivant celle-ci. Identifier les précurseurs au développement d’une dépendance à une substance psychoactive en tenant compte de la sévérité d’exposition à l’événement. Examiner si la consommation d’alcool 18 mois après les événements est en lien avec les différents groupes de symptômes d’état de stress post-traumatique. Méthode : La population à l’étude est composée de l’ensemble des étudiants du Collège Dawson au moment de l’événement. Les analyses ont été faites auprès de 854 étudiants inscrits au Collège au moment de la fusillade. Résultats : Cinq pourcent des femmes et 7 % des hommes présentent pour la première fois de leur vie un problème de dépendance à une substance suite à la fusillade. Pour les hommes, leur jeune âge, la présence de pensées suicidaires au cours de leur vie, ainsi que le fait d’avoir vu le tireur au moment de la fusillade sont les principaux précurseurs de cas incidents de dépendance. Aucun des précurseurs étudiés n’est significatif pour les femmes. Les hommes et les femmes se distinguent également quant aux symptômes d’état de stress post-traumatique qui prédisent la consommation d’alcool 18 mois après la fusillade. Conclusion : La principale retombée de l’étude est de souligner l’importance de considérer le sexe des individus pour étudier leur consommation de substances psychoactives suite à un traumatisme.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En écologie, dans le cadre par exemple d’études des services fournis par les écosystèmes, les modélisations descriptive, explicative et prédictive ont toutes trois leur place distincte. Certaines situations bien précises requièrent soit l’un soit l’autre de ces types de modélisation ; le bon choix s’impose afin de pouvoir faire du modèle un usage conforme aux objectifs de l’étude. Dans le cadre de ce travail, nous explorons dans un premier temps le pouvoir explicatif de l’arbre de régression multivariable (ARM). Cette méthode de modélisation est basée sur un algorithme récursif de bipartition et une méthode de rééchantillonage permettant l’élagage du modèle final, qui est un arbre, afin d’obtenir le modèle produisant les meilleures prédictions. Cette analyse asymétrique à deux tableaux permet l’obtention de groupes homogènes d’objets du tableau réponse, les divisions entre les groupes correspondant à des points de coupure des variables du tableau explicatif marquant les changements les plus abrupts de la réponse. Nous démontrons qu’afin de calculer le pouvoir explicatif de l’ARM, on doit définir un coefficient de détermination ajusté dans lequel les degrés de liberté du modèle sont estimés à l’aide d’un algorithme. Cette estimation du coefficient de détermination de la population est pratiquement non biaisée. Puisque l’ARM sous-tend des prémisses de discontinuité alors que l’analyse canonique de redondance (ACR) modélise des gradients linéaires continus, la comparaison de leur pouvoir explicatif respectif permet entre autres de distinguer quel type de patron la réponse suit en fonction des variables explicatives. La comparaison du pouvoir explicatif entre l’ACR et l’ARM a été motivée par l’utilisation extensive de l’ACR afin d’étudier la diversité bêta. Toujours dans une optique explicative, nous définissons une nouvelle procédure appelée l’arbre de régression multivariable en cascade (ARMC) qui permet de construire un modèle tout en imposant un ordre hiérarchique aux hypothèses à l’étude. Cette nouvelle procédure permet d’entreprendre l’étude de l’effet hiérarchisé de deux jeux de variables explicatives, principal et subordonné, puis de calculer leur pouvoir explicatif. L’interprétation du modèle final se fait comme dans une MANOVA hiérarchique. On peut trouver dans les résultats de cette analyse des informations supplémentaires quant aux liens qui existent entre la réponse et les variables explicatives, par exemple des interactions entres les deux jeux explicatifs qui n’étaient pas mises en évidence par l’analyse ARM usuelle. D’autre part, on étudie le pouvoir prédictif des modèles linéaires généralisés en modélisant la biomasse de différentes espèces d’arbre tropicaux en fonction de certaines de leurs mesures allométriques. Plus particulièrement, nous examinons la capacité des structures d’erreur gaussienne et gamma à fournir les prédictions les plus précises. Nous montrons que pour une espèce en particulier, le pouvoir prédictif d’un modèle faisant usage de la structure d’erreur gamma est supérieur. Cette étude s’insère dans un cadre pratique et se veut un exemple pour les gestionnaires voulant estimer précisément la capture du carbone par des plantations d’arbres tropicaux. Nos conclusions pourraient faire partie intégrante d’un programme de réduction des émissions de carbone par les changements d’utilisation des terres.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Comment le motif de la marque insensible du diable a-t-il pu se frayer un chemin au sein du discours théologique, juridique et médical de la fin de la Renaissance jusqu'à s'imposer comme une pièce essentielle du crime de sorcellerie? Selon quels mécanismes et à partir de quels systèmes de croyance cette marque corporelle en est-elle venue à connaître une si large diffusion et une aussi grande acceptation tant chez les gens du livres que parmi les couches populaires? En cette époque marquée par la grande chasse aux sorcières et le développement de l'investigation scientifique, l'intérêt que les savants portent à cette étrange sémiologie constitue une porte d'accès privilégiée pour aborder de front la dynamique du déplacement des frontières que la démonologie met en oeuvre au sein des différents champs du savoir. Cette thèse a pour objectif d'étudier le réseau des mutations épistémologiques qui conditionne l'émergence de la marque du diable dans le savoir démonologique français à la charnière des XVIe et XVIIe siècles. Nous examinerons par quels cheminements l'altérité diabolique s'est peu à peu intériorisée dans le corps et l'âme des individus sous l'influence grandissante des vertus de l'empirisme, de la méthode expérimentale et de l'observation. En analysant la construction rhétorique de la théorie des marques du diable et en la reliant aux changements qui s'opèrent sur la plateforme intellectuelle de l'Ancien Régime, nous entendons éclairer la nouvelle distribution qui s'effectue entre les faits naturels et surnaturels ainsi que les modalités d'écriture pour en rendre compte.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’aréthuse bulbeuse (Arethusa bulbosa L.) est une orchidée tourbicole rare au Québec de par la petite taille de ses populations et les pressions qui pèsent sur son habitat. L’aréthuse est reconnue comme étant intolérante aux changements édaphiques de son habitat, notamment en regard du drainage. Afin de déterminer si l’aréthuse est une bonne espèce indicatrice de l’intégrité écologique des tourbières, cette étude compare des parcelles où l’espèce est présente et où elle est absente. Au cours des étés 2009 et 2010, 37 tourbières du Québec méridional ont été échantillonnées. Des analyses discriminantes ont mis en évidence les facteurs naturels ou d’origine anthropique qui expliquent le mieux la différence entre les quatre types de parcelles. Aussi, la recherche d’espèces indicatrices de la présence de l’aréthuse a été réalisée grâce à la méthode INDVAL. Les résultats montrent que l’aréthuse pousse principalement dans des tourbières présentant des conditions minérotrophes, ce qui est appuyé par le pH élevé et la présence de plantes indicatrices de minérotrophie dans les parcelles contenant l’aréthuse. Cette dernière semble aussi profiter d’une certaine atténuation de la lumière par des arbres dispersés ou par les strates plus basses. Finalement, certaines perturbations de faible ampleur semblent être bénéfiques pour l’aréthuse, ce qui ne permet pas d’affirmer qu’elle est une bonne espèce indicatrice de l’intégrité écologique des tourbières.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Partant des travaux séminaux de Boole, Frege et Russell, le mémoire cherche à clarifier l‟enjeu du pluralisme logique à l‟ère de la prolifération des logiques non-classiques et des développements en informatique théorique et en théorie des preuves. Deux chapitres plus « historiques » sont à l‟ordre du jour : (1) le premier chapitre articule l‟absolutisme de Frege et Russell en prenant soin de montrer comment il exclut la possibilité d‟envisager des structures et des logiques alternatives; (2) le quatrième chapitre expose le chemin qui mena Carnap à l‟adoption de la méthode syntaxique et du principe de tolérance, pour ensuite dégager l‟instrumentalisme carnapien en philosophie de la Logique et des mathématiques. Passant par l‟analyse d‟une interprétation intuitive de la logique linéaire, le deuxième chapitre se tourne ensuite vers l‟établissement d‟une forme logico-mathématique de pluralisme logique à l‟aide de la théorie des relations d‟ordre et la théorie des catégories. Le troisième chapitre délimite le terrain de jeu des positions entourant le débat entre monisme et pluralisme puis offre un argument contre la thèse qui veut que le conflit entre logiques rivales soit apparent, le tout grâce à l‟utilisation du point de vue des logiques sous-structurelles. Enfin, le cinquième chapitre démontre que chacune des trois grandes approches au concept de conséquence logique (modèle-théorétique, preuve-théorétique et dialogique) forme un cadre suffisamment général pour établir un pluralisme. Bref, le mémoire est une défense du pluralisme logique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce mémoire a pour but de montrer l’impact du paradigme géométrique sur l’évolution de la dialectique dans le Ménon. La première partie de cette recherche est consacrée à la dialectique des premiers dialogues, l’elenchos. Cette pratique de la philosophie est ensuite comparée à la dialectique du Ménon qui est caractérisée par l’introduction de la notion de réminiscence. La seconde partie de cette étude concerne les deux passages géométriques du Ménon : le problème de la duplication du carré et la méthode hypothétique. Le premier passage permet à Platon de défendre la possibilité de la recherche scientifique, alors que le second (inspiré de l’analyse géométrique) est présenté comme un nouveau modèle pour mener à bien l’enquête philosophique. Cette méthode, qui consiste à réduire la difficulté d’un problème en postulant des hypothèses, permet notamment de passer de ce qui est logiquement second (de la qualité: « la vertu s’enseigne-t-elle? ») à ce qui est logiquement premier (à l’essence: « qu’est-ce que la vertu? »).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le présent travail est encadré dans le domaine de la linguistique appliquée de l'espagnol comme langue étrangère (ELE), et plus spécifiquement dans l'enseignement du genre grammatical en ELE. Notre intérêt en tant que enseignants c’est de pouvoir établir une méthode fiable selon les critères du Plan curricular de l'Institut Cervantès et la technique du consciousness-raising, ainsi que élaborer des activités destinées à l'enseignement du genre grammatical dans la classe d’ELE. L'enseignement d'ELE au Québec suit les mêmes méthodes qu'en Europe. En ce qui concerne l'enseignement du genre grammatical, les études consultées ratifient le manque d'instruction pertinente à propos du genre grammatical, ainsi que la difficulté dans la concordance même dans des niveaux avancés. Cependant, l'analyse de manuels d'ELE utilisés dans les diverses institutions de Montréal permet de conclure que ceux-ci ne suivent pas les règles établies par le Plan curricular en ce qui concerne l'enseignement du genre. Pour vérifier ces faits un travail de champ a été mis en place avec 84 étudiants et étudiantes de six institutions de Montréal pendant deux mois et deux semaines. Les résultats de la recherche et l'analyse d'erreurs nous montrent qu’il y a des problèmes avec le genre grammatical chez les étudiants de niveau intermédiaire et que les erreurs ne disparaissent pas avec les activités de renfort créées. Il est donc nécessaire d’adopter une méthode plus appropriée à l'apprentissage du genre grammatical dans une classe d’ELE et la présence du professeur pour la présenter. En effet, l'exécution d'activités créées n'est pas suffisant, car bien que les résultats montrent un léger progrès dans le cas du groupe B, ou d’expérience, en comparaison au groupe A, ou de control, on a constaté qu’une instruction formelle aurait entrainé un meilleur et plus complet apprentissage du genre grammatical dans le cas de nos étudiants; dela nécessité d'établir une méthode fiable pour son enseignement.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

De déterminer si une stratégie de contrôle du rythme améliore la qualité de vie et / ou la capacité fonctionnelle par rapport à une stratégie de contrôle de la fréquence cardiaque chez les patients atteints de fibrillation auriculaire et d'insuffisance cardiaque congestive. Méthode: Pour évaluer la qualité de vie, le questionnaire SF-36 a été administré à l'inclusion et à 4 mois chez 749 patients de l’étude AF-CHF. Les paramètres de capacité fonctionnelle évalués ont été la classe fonctionnelle NYHA (1376 patients) et la distance de marche de six minutes (1099 patients). Résultats: Le type du traitement assigné n'a pas eu un impact significatif sur la qualité de vie ou la capacité fonctionnelle. Conclusion: La qualité de vie et la capacité fonctionnelle sont similaires chez les patients randomisés au contrôle du rythme par rapport au contrôle de la fréquence. Les hommes non-obèses avec moins de comorbidités semblent plus susceptibles de s'améliorer.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La question de recherche à la base de cette étude soulève le point de la nature paradoxale du canon de représentation égyptien qui démontre, simultanément, une certaine rigidité dans l’application de règles stylistiques et iconographiques établies, particulièrement dans l’art non commandité par l’État, et des preuves de transformation et d’intégration de motifs nouveaux. Partant de cette problématique, l’étude vise à identifier les mécanismes par lesquels ce canon permet, à la fois, l’innovation et le maintien d’une certaine tradition. L’approche est de nature double et consiste tout d’abord à identifier de grandes tendances et discontinuités stylistiques et iconographiques sur les bols de faïence du Moyen au Nouvel Empire. De plus, elle tente de déterminer si les transformations d’ordre sociopolitique et idéologique, survenant à ces périodes, peuvent être lues dans les variations stylistiques et iconographiques trouvées sur les bols de faïence. Après une description du champ conceptuel de la « représentation » en contexte égyptien, l’auteur effectue l’analyse iconographique exhaustive de ce qui constitue l’apport majeur de son étude, un corpus de 500 bols et fragments de faïence provenant de divers sites égyptiens du Moyen au Nouvel Empire. Les données ont été traitées par le biais de la méthode d’analyse iconologique proposée par Panofsky, qui lui permet de dévoiler un grand nombre de continuités et de transformations d’ordre stylistique et iconographique pour les différentes périodes. Plusieurs facteurs semblent avoir été à l’origine de ces transformations, dont la fluctuation entre un contexte de centralisation et de décentralisation politique de l’État, ainsi que l’intégration de motifs étrangers (proche-orientaux et égéens) résultant d’un contact accru entre l’Égypte et les régions voisines. De plus, les transformations idéologiques apportées par le règne d’Akhénaton et par la « contre-réforme » idéologique à la période ramesside, semblent avoir également contribué à des innovations au sein du canon, même si ce dernier maintient une certaine continuité légitimée par le pouvoir étatique. Le canon de représentation, devient ainsi une forme de langage dont l’État se sert et qui, parfois malgré lui, se transforme et fluctue selon les réalités des différentes périodes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Un cadre d’analyse des figures utilisées dans la vulgarisation de la connaissance scientifique est développé suivant la sémiotique de Charles S. Peirce et la méthode archéologique de Michel Foucault. Ce cadre est appliqué spécifiquement à l’analyse de figures de l’atome recensées systématiquement dans deux revues de science populaires. Des recommandations découlant de notre analyse sont faites.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En 1975, Wilson et King ont proposé que l'évolution opère non seulement via des changements affectant la structure des protéines, mais aussi via des mutations qui modifient la régulation génétique. L'étude des éléments régulateurs de l'expression génétique a un rôle important dans la compréhension de l'expression de différentes maladies et de la réponse thérapeutique. Nous avons développé un algorithme bio- informatique qui nous permet rapidement de trouver des sites de régulation génétique à travers tout le génome et pour une grande quantité de gènes. Notre approche consiste à trouver des sites polymorphes (SNPs) qui sont en déséquilibre de liaison avec le débalancement allélique (AI) afin de cartographier la région régulatrice et le site responsable. Notre méthode est avantageuse par rapport à d'autres méthodes, car elle n'a pas besoin des données « phasées». De plus, les données de débalancement allélique ne sont pas affectées par des facteurs externes étant donné qu'ils sont mesurés dans la même cellule. Nous avons démontré que notre approche est fiable et qu'elle peut détecter des sites loin du gène. De plus, il peut être appliqué à des données de génotypage sans avoir besoin de les « phaser » .