976 resultados para Calcul coût bénéfice


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire a pour thèse que les fonctions devraient être transparentes lors de la phase de métaprogrammation. En effet, la métaprogrammation se veut une possibilité pour le programmeur d’étendre le compilateur. Or, dans un style de programmation fonctionnelle, la logique du programme se retrouve dans les définitions des diverses fonctions le composant. Puisque les fonctions sont généralement opaques, l’impossibilité d’accéder à cette logique limite les applications possibles de la phase de métaprogrammation. Nous allons illustrer les avantages que procurent les fonctions transparentes pour la métaprogrammation. Nous donnerons notamment l’exemple du calcul symbolique et un exemple de nouvelles optimisations désormais possibles. Nous illustrerons également que la transparence des fonctions permet de faire le pont entre les datatypes du programme et les fonctions. Nous allons également étudier ce qu'implique la présence de fonctions transparentes au sein d'un langage. Nous nous concentrerons sur les aspects reliés à l'implantation de ces dernières, aux performances et à la facilité d'utilisation. Nous illustrerons nos propos avec le langage Abitbol, un langage créé sur mesure pour la métaprogrammation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La greffe de cellules souches hématopoïétiques est parfois le seul traitement efficace contre les cancers hématologiques ainsi que plusieurs autres désordres reliés au système hématopoïétique. La greffe autologue est souvent le traitement de choix pour les patients atteints de lymphome ou de myélome. Dans ce cas, les cellules souches hématopoïétiques (CSH) du patient sont récoltées et congelées. Le patient subit ensuite des traitements de chimiothérapie et/ou radiothérapie qui éliminent les cellules malignes, mais détruisent aussi son système hématopoïétique. Ce dernier sera ensuite reconstitué par la greffe de CSH. Ces traitements ont pour conséquence de plonger le patient en état d’aplasie pour une période variant de 2 à 4 semaines. La thrombocytopénie (faible taux de plaquettes) est une complication majeure nécessitant des transfusions plaquettaires répétées et associée à une augmentation de la mortalité hémorragique post-transplantation. Il serait particulièrement intéressant de développer une thérapie accélérant la reconstitution des mégacaryocytes (MK), ce qui aurait pour effet de raccourcir la période de thrombopénie et donc de diminuer les besoins transfusionnels en plaquettes et potentiellement augmenter la survie. HOXB4 est un facteur de transcription qui a déjà démontré sa capacité à expandre les CSH et les progéniteurs multipotents (CFU-GEMM) donnant naissance aux MK. Il est donc un bon candidat pour l’expansion des progéniteurs MK. Comme la protéine HoxB4 a par contre une courte demi-vie (~1.1h), des protéines HoxB4 de deuxième génération avec une plus grande stabilité intracellulaire ont été créées (1423 (HoxB4L7A), 1426 (HoxB4Y23A) et 1427 (HoxB4Y28A)). Nous avons donc étudié la capacité d’HoxB4 sauvage et de deuxième génération à expandre les CSH, ainsi que les MK donnant naissance aux plaquettes. La surexpression rétrovirale de ces protéines HoxB4Y23A et HoxB4Y28A conduit à une expansion des progéniteurs MK murins in vitro supérieure à HoxB4-wt, 1423 et au contrôle GFP. La reconstitution plaquettaire in vivo dans un modèle murin a ensuite été évaluée par des transplantations primaires et secondaires. Les résultats révèlent que la surexpression rétrovirale des différents HoxB4 n’apporte pas de bénéfice significatif à la reconstitution plaquettaire des souris. Lorsque cultivées dans un milieu favorisant la différenciation mégacaryocytaire, le traitement de cellules CD34+ dérivées du sang de cordon ombilical avec les protéines recombinantes TATHoxB4WT ou de seconde génération n’a pas augmenté la production plaquettaire. Par contre, de manière intéressante, les cellules CD34+ provenant de sang mobilisé de patients atteints de myélome et mises en culture dans un milieu favorisant l’expansion des CSH ont montré des différences significatives dans la différenciation des progéniteurs MK en présence de la protéine recombinante TATHoxB4. La protéine HOXB4 possède donc un avenir prometteur quant à une amélioration de l’état thrombocytopénique chez les patients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse est divisée en trois chapitres. Le premier explique comment utiliser la méthode «level-set» de manière rigoureuse pour faire la simulation de feux de forêt en utilisant comme modèle physique pour la propagation le modèle de l'ellipse de Richards. Le second présente un nouveau schéma semi-implicite avec une preuve de convergence pour la solution d'une équation de type Hamilton-Jacobi anisotrope. L'avantage principal de cette méthode est qu'elle permet de réutiliser des solutions à des problèmes «proches» pour accélérer le calcul. Une autre application de ce schéma est l'homogénéisation. Le troisième chapitre montre comment utiliser les méthodes numériques des deux premiers chapitres pour étudier l'influence de variations à petites échelles dans la vitesse du vent sur la propagation d'un feu de forêt à l'aide de la théorie de l'homogénéisation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans des contextes de post-urgence tels que le vit la partie occidentale de la République Démocratique du Congo (RDC), l’un des défis cruciaux auxquels font face les hôpitaux ruraux est de maintenir un niveau de médicaments essentiels dans la pharmacie. Sans ces médicaments pour traiter les maladies graves, l’impact sur la santé de la population est significatif. Les hôpitaux encourent également des pertes financières dues à la péremption lorsque trop de médicaments sont commandés. De plus, les coûts du transport des médicaments ainsi que du superviseur sont très élevés pour les hôpitaux isolés ; les coûts du transport peuvent à eux seuls dépasser ceux des médicaments. En utilisant la province du Bandundu, RDC pour une étude de cas, notre recherche tente de déterminer la faisabilité (en termes et de la complexité du problème et des économies potentielles) d’un problème de routage synchronisé pour la livraison de médicaments et pour les visites de supervision. Nous proposons une formulation du problème de tournées de véhicules avec capacité limitée qui gère plusieurs exigences nouvelles, soit la synchronisation des activités, la préséance et deux fréquences d’activités. Nous mettons en œuvre une heuristique « cluster first, route second » avec une base de données géospatiales qui permet de résoudre le problème. Nous présentons également un outil Internet qui permet de visualiser les solutions sur des cartes. Les résultats préliminaires de notre étude suggèrent qu’une solution synchronisée pourrait offrir la possibilité aux hôpitaux ruraux d’augmenter l’accessibilité des services médicaux aux populations rurales avec une augmentation modique du coût de transport actuel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente thèse, organisée en trois volets, poursuivait trois objectifs : i) Estimer les coûts médicaux directs du traitement du DT2 dans 4 pays d’Afrique subsaharienne et dans le cas du Mali, rapprocher ces coûts médicaux directs estimés aux dépenses effectives des patients diabétiques ; ii) Examiner le coût-efficacité des interventions de prévention basées sur la modification du mode de vie chez les sujets à haut risque du DT2; iii) Cerner la perception et les attitudes des acteurs de la santé sur les outils de plaidoyer développés dans le cadre du projet DFN et leur potentiel d’impact sur les décideurs. Dans le premier volet, il s’est agi d’estimer les coûts du DT2 et de ses complications au moyen d’un calculateur et de le mettre à l’épreuve au Bénin, au Burkina- Faso, en Guinée et au Mali. Les composantes de soins pour le DT2 et ses complications avaient été définies au préalable par une équipe de spécialistes, sur la base de leur expérience clinique et des lignes directrices existantes. Les prix ont été relevés dans deux structures hospitalières du secteur public et deux du privé. Les coûts ont été estimés sur une base annuelle pour le DT2 avec ou sans complications chroniques puis par épisode pour les complications aiguës. Dans le cas du Mali, ces coûts ont été rapprochés des dépenses de patients diabétiques d’après une précédente enquête transversale dans ce pays. Cette enquête portait sur 500 sujets diabétiques sélectionnés au hasard dans les registres. Les dépenses pour les soins des trois derniers mois avaient été relevées. Les déterminants des dépenses ont été explorés. Il ressort des différences de coûts dans le même secteur puis entre le secteur privé et le secteur public. Le coût minimum du traitement du DT2 sans complications dans le secteur public représentait entre 21% et 34% de PIB par habitant, puis entre 26% - 47% en présence de la rétinopathie et au-delà de 70% pour la néphropathie, la complication chronique la plus coûteuse. Les dépenses des sujets diabétiques enquêtés au Mali, étaient en deçà des coûts minima estimatifs des différentes complications excepté la rétinopathie et le DT2 sans complication. Les facteurs comme l’insulinothérapie, le nombre de complications et la résidence dans la capitale étaient significativement associés aux dépenses plus élevées des patients. Dans le second volet, la revue systématique a consisté à recenser les études d’évaluation économique des interventions de prévention du DT2 dans des groupes à haut risque par l’alimentation et/ou l’activité physique. Les interventions de contrôle de l’obésité comme facteur de risque majeur de DT2 ont également été considérées. Les études ont été sélectionnées dans les bases de données scientifiques en utilisant les mots clés et des critères prédéfinis. Les études originales publiées entre janvier 2009 et décembre 2014 et conduites en français, anglais ou espagnol étaient potentiellement éligibles. La liste de contrôle de « British Medical Journal » a servi à évaluer la qualité des études. Des 21 études retenues, 15 rapportaient que les interventions étaient coût-efficaces suivant les limites d’acceptabilité considérées. Six études étaient non concluantes, dont quatre destinées à la prévention du DT2 et deux, au contrôle de l’obésité. Dans le troisième volet, les perceptions d’utilisateurs potentiels de ce calculateur et d’un autre outil de plaidoyer, à savoir, l’argumentaire narratif expliquant la nécessité de se pencher sur la lutte contre le DT2 en Afrique, ont été évaluées dans une étude qualitative exploratoire. Les données ont été collectées au cours d’entretiens individuels avec 16 acteurs de la santé de quatre pays d’Afrique subsaharienne et un groupe de discussion avec 10 étudiants de master de nutrition à l’issue d’un atelier de formation sur le plaidoyer faisant appel à ces outils, au Bénin. Les entretiens ont été enregistrés, transcrits et codés à l’aide du logiciel QDA Miner. Les participants ont souligné la pertinence des outils pour le plaidoyer et la convivialité du calculateur de coûts. Il demeure cependant que le contexte politique marqué par la compétition des priorités, l’absence de cohésion entre les décideurs et un défaut de données notamment sur le coût-efficacité des interventions sont des freins à la priorisation du DT2 dans les politiques de santé en Afrique subsaharienne que les répondants ont relevés. L’étude confirme que le traitement du DT2 est financièrement inabordable pour un grand nombre de patients. Elle souligne que les dépenses des patients sont en deçà des coûts estimés pour un traitement approprié avec quelques exceptions. La prévention du DT2 basée le mode de vie est coût-efficace mais devrait être étudiée en Afrique. On peut espérer que la pertinence des outils de ce travail telle que relevée par les acteurs de santé se traduise par leur utilisation. Ceci pour susciter des interventions de prévention afin d’infléchir l’évolution du DT2 et son impact économique en Afrique subsaharienne.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Connue pour augmenter les temps de réponse et les erreurs, l’alternance des tâches est considérée par les industriels comme un point de friction humain depuis plusieurs décennies. Pourtant malgré l’important nombre d’études sur l’alternance des tâches, peu s'intéressent à l'électrophysiologie humaine et au déploiement de l’attention visuospatiale. Le travail qui suit décrit notre incursion destinée à approfondir les connaissances autant sur les paradigmes d’alternance de tâche que les composantes électrophysiologiques typiquement reliées au déploiement de l’attention visuospatiale telles la N2pc ou la Ppc récemment décrite par Corriveau et al. (2012). Afin d’examiner les modulations des composantes électrophysiologiques sus nommées en fonction des coûts d’alternance, un paradigme d’alternance des tâches regroupant des blocs mixtes (avec alternance) et des blocs purs (sans alternance) a été utilisé. Les résultats démontrent un impact du coût d’alternance sur la latence de la N2pc, ce qui reflète comme attendu d’un processus de contrôle cognitif descendant sur la sélection attentionnelle visospatiale. De manière plus surprenante, des modulations de Ppc ont été observées, tandis que cette composante était jusqu’alors comprise comme une composante principalement reliée à une activité ascendante de bas niveau de traitement. Cette modulation de Ppc suggère l'existence d’un autre mécanisme de modulation attentionnelle antérieur à la N2pc.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les ARN non codants (ARNnc) sont des transcrits d'ARN qui ne sont pas traduits en protéines et qui pourtant ont des fonctions clés et variées dans la cellule telles que la régulation des gènes, la transcription et la traduction. Parmi les nombreuses catégories d'ARNnc qui ont été découvertes, on trouve des ARN bien connus tels que les ARN ribosomiques (ARNr), les ARN de transfert (ARNt), les snoARN et les microARN (miARN). Les fonctions des ARNnc sont étroitement liées à leurs structures d’où l’importance de développer des outils de prédiction de structure et des méthodes de recherche de nouveaux ARNnc. Les progrès technologiques ont mis à la disposition des chercheurs des informations abondantes sur les séquences d'ARN. Ces informations sont accessibles dans des bases de données telles que Rfam, qui fournit des alignements et des informations structurelles sur de nombreuses familles d'ARNnc. Dans ce travail, nous avons récupéré toutes les séquences des structures secondaires annotées dans Rfam, telles que les boucles en épingle à cheveux, les boucles internes, les renflements « bulge », etc. dans toutes les familles d'ARNnc. Une base de données locale, RNAstem, a été créée pour faciliter la manipulation et la compilation des données sur les motifs de structure secondaire. Nous avons analysé toutes les boucles terminales et internes ainsi que les « bulges » et nous avons calculé un score d’abondance qui nous a permis d’étudier la fréquence de ces motifs. Tout en minimisant le biais de la surreprésentation de certaines classes d’ARN telles que l’ARN ribosomal, l’analyse des scores a permis de caractériser les motifs rares pour chacune des catégories d’ARN en plus de confirmer des motifs communs comme les boucles de type GNRA ou UNCG. Nous avons identifié des motifs abondants qui n’ont pas été étudiés auparavant tels que la « tetraloop » UUUU. En analysant le contenu de ces motifs en nucléotides, nous avons remarqué que ces régions simples brins contiennent beaucoup plus de nucléotides A et U. Enfin, nous avons exploré la possibilité d’utiliser ces scores pour la conception d’un filtre qui permettrait d’accélérer la recherche de nouveaux ARN non-codants. Nous avons développé un système de scores, RNAscore, qui permet d’évaluer un ARN en se basant sur son contenu en motifs et nous avons testé son applicabilité avec différents types de contrôles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La synthèse d'images dites photoréalistes nécessite d'évaluer numériquement la manière dont la lumière et la matière interagissent physiquement, ce qui, malgré la puissance de calcul impressionnante dont nous bénéficions aujourd'hui et qui ne cesse d'augmenter, est encore bien loin de devenir une tâche triviale pour nos ordinateurs. Ceci est dû en majeure partie à la manière dont nous représentons les objets: afin de reproduire les interactions subtiles qui mènent à la perception du détail, il est nécessaire de modéliser des quantités phénoménales de géométries. Au moment du rendu, cette complexité conduit inexorablement à de lourdes requêtes d'entrées-sorties, qui, couplées à des évaluations d'opérateurs de filtrage complexes, rendent les temps de calcul nécessaires à produire des images sans défaut totalement déraisonnables. Afin de pallier ces limitations sous les contraintes actuelles, il est nécessaire de dériver une représentation multiéchelle de la matière. Dans cette thèse, nous construisons une telle représentation pour la matière dont l'interface correspond à une surface perturbée, une configuration qui se construit généralement via des cartes d'élévations en infographie. Nous dérivons notre représentation dans le contexte de la théorie des microfacettes (conçue à l'origine pour modéliser la réflectance de surfaces rugueuses), que nous présentons d'abord, puis augmentons en deux temps. Dans un premier temps, nous rendons la théorie applicable à travers plusieurs échelles d'observation en la généralisant aux statistiques de microfacettes décentrées. Dans l'autre, nous dérivons une procédure d'inversion capable de reconstruire les statistiques de microfacettes à partir de réponses de réflexion d'un matériau arbitraire dans les configurations de rétroréflexion. Nous montrons comment cette théorie augmentée peut être exploitée afin de dériver un opérateur général et efficace de rééchantillonnage approximatif de cartes d'élévations qui (a) préserve l'anisotropie du transport de la lumière pour n'importe quelle résolution, (b) peut être appliqué en amont du rendu et stocké dans des MIP maps afin de diminuer drastiquement le nombre de requêtes d'entrées-sorties, et (c) simplifie de manière considérable les opérations de filtrage par pixel, le tout conduisant à des temps de rendu plus courts. Afin de valider et démontrer l'efficacité de notre opérateur, nous synthétisons des images photoréalistes anticrenelées et les comparons à des images de référence. De plus, nous fournissons une implantation C++ complète tout au long de la dissertation afin de faciliter la reproduction des résultats obtenus. Nous concluons avec une discussion portant sur les limitations de notre approche, ainsi que sur les verrous restant à lever afin de dériver une représentation multiéchelle de la matière encore plus générale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Parallèlement à l’histoire du développement d’Internet et du web, une autre histoire est fondamentale pour comprendre les enjeux de l’édition numérique : celle des humanités numériques. Il y a encore quelques décennies, on pouvait penser que les ordinateurs et les technologies numériques étaient destinés uniquement aux sciences dures, les sciences exactes dont le calcul et les mathématiques sont les principaux outils. Cette idée est manifestement fausse aujourd’hui : le numérique habite l’ensemble de nos vies et touche aussi, et surtout, à nos activités purement « humanistes », ou même « humaines ». Ce chapitre a pour ambition de retracer l’histoire du rapport complexe entre les sciences humaines et l’informatique qui a mené des premières expériences de recherche assistée par ordinateur, dans le domaine des sciences humaines (humanities computing), aux actuelles digital humanities, ou à un possible humanisme numérique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les histones sont des protéines nucléaires hautement conservées chez les cellules des eucaryotes. Elles permettent d’organiser et de compacter l’ADN sous la forme de nucléosomes, ceux-ci representant les sous unités de base de la chromatine. Les histones peuvent être modifiées par de nombreuses modifications post-traductionnelles (PTMs) telles que l’acétylation, la méthylation et la phosphorylation. Ces modifications jouent un rôle essentiel dans la réplication de l’ADN, la transcription et l’assemblage de la chromatine. L’abondance de ces modifications peut varier de facon significative lors du developpement des maladies incluant plusieurs types de cancer. Par exemple, la perte totale de la triméthylation sur H4K20 ainsi que l’acétylation sur H4K16 sont des marqueurs tumoraux spécifiques a certains types de cancer chez l’humain. Par conséquent, l’étude de ces modifications et des événements determinant la dynamique des leurs changements d’abondance sont des atouts importants pour mieux comprendre les fonctions cellulaires et moléculaires lors du développement de la maladie. De manière générale, les modifications des histones sont étudiées par des approches biochimiques telles que les immuno-buvardage de type Western ou les méthodes d’immunoprécipitation de la chromatine (ChIP). Cependant, ces approches présentent plusieurs inconvénients telles que le manque de spécificité ou la disponibilité des anticorps, leur coût ou encore la difficulté de les produire et de les valider. Au cours des dernières décennies, la spectrométrie de masse (MS) s’est avérée être une méthode performante pour la caractérisation et la quantification des modifications d’histones. La MS offre de nombreux avantages par rapport aux techniques traditionnelles. Entre autre, elle permet d’effectuer des analyses reproductibles, spécifiques et facilite l’etude d’un large spectre de PTMs en une seule analyse. Dans cette thèse, nous présenterons le développement et l’application de nouveaux outils analytiques pour l’identification et à la quantification des PTMs modifiant les histones. Dans un premier temps, une méthode a été développée pour mesurer les changements d’acétylation spécifiques à certains sites des histones. Cette méthode combine l’analyse des histones intactes et les méthodes de séquençage peptidique afin de déterminer les changements d’acétylation suite à la réaction in vitro par l’histone acétyltransférase (HAT) de levure Rtt109 en présence de ses chaperonnes (Asf1 ou Vps75). Dans un second temps, nous avons développé une méthode d’analyse des peptides isomériques des histones. Cette méthode combine la LC-MS/MS à haute résolution et un nouvel outil informatique appelé Iso-PeptidAce qui permet de déconvoluer les spectres mixtes de peptides isomériques. Nous avons évalué Iso-PeptidAce avec un mélange de peptides synthétiques isomériques. Nous avons également validé les performances de cette approche avec des histones isolées de cellules humaines érythroleucémiques (K562) traitées avec des inhibiteurs d’histones désacétylases (HDACi) utilisés en clinique, et des histones de Saccharomyces cerevisiae liées au facteur d’assemblage de la chromatine (CAF-1) purifiées par chromatographie d’affinité. Enfin, en utilisant la méthode présentée précédemment, nous avons fait une analyse approfondie de la spécificité de plusieurs HATs et HDACs chez Schizosaccharomyces pombe. Nous avons donc déterminé les niveaux d’acétylation d’histones purifiées à partir de cellules contrôles ou de souches mutantes auxquelles il manque une HAT ou HDAC. Notre analyse nous a permis de valider plusieurs cibles connues des HATs et HDACs et d’en identifier de nouvelles. Nos données ont également permis de définir le rôle des différentes HATs et HDACs dans le maintien de l’équilibre d’acétylation des histones. Dans l’ensemble, nous anticipons que les méthodes décrites dans cette thèse permettront de résoudre certains défis rencontrés dans l’étude de la chromatine. De plus, ces données apportent de nouvelles connaissances pour l’élaboration d’études génétiques et biochimiques utilisant S. pombe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Purpose: There are few studies demonstrating the link between neural oscillations in magnetoencephalography (MEG) at rest and cognitive performance. Working memory is one of the most studied cognitive processes and is the ability to manipulate information on items kept in short-term memory. Heister & al. (2013) showed correlation patterns between brain oscillations at rest in MEG and performance in a working memory task (n-back). These authors showed that delta/theta activity in fronto-parietal areas is related to working memory performance. In this study, we use resting state MEG oscillations to validate these correlations with both of verbal (VWM) and spatial (SWM) working memory, and test their specificity in comparison with other cognitive abilities. Methods: We recorded resting state MEG and used clinical neuropsychological tests to assess working memory performance in 18 volunteers (6 males and 12 females). The other neuropsychological tests of the WAIS-IV were used as control tests to assess the specificity of the correlation patterns with working memory. We calculated means of Power Spectrum Density for different frequency bands (delta, 1-4Hz; theta, 4-8Hz; alpha, 8-13Hz; beta, 13-30Hz; gamma1, 30-59Hz; gamma2, 61-90Hz; gamma3, 90-120Hz; large gamma, 30-120Hz) and correlated MEG power normalised for the maximum in each frequency band at the sensor level with working memory performance. We then grouped the sensors showing a significant correlation by using a cluster algorithm. Results: We found positive correlations between both types of working memory performance and clusters in the bilateral posterior and right fronto-temporal regions for the delta band (r2 =0.73), in the fronto-middle line and right temporal regions for the theta band (r2 =0.63) as well as in the parietal regions for the alpha band (r2 =0.78). Verbal working memory and spatial working memory share a common fronto-parietal cluster of sensors but also show specific clusters. These clusters are specific to working memory, as compared to those obtained for other cognitive abilities and right posterior parietal areas, specially in slow frequencies, appear to be specific to working memory process. Conclusions: Slow frequencies (1-13Hz) but more precisely in delta/theta bands (1-8Hz), recorded at rest with magnetoencephalography, predict working memory performance and support the role of a fronto-parietal network in working memory.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’ontologie de Leśniewski est un calcul général des noms. Elle fut créée par Leśniewski pour apporter une solution naturelle au paradoxe de Russell en théorie naïve des ensembles. L’ontologie a été perçue par ses défenseurs et par ses adversaires comme une théorie incompatible avec la théorie des ensembles. Dans le présent texte, nous montrons que l’ontologie de Leśniewski permet, au contraire, de définir une théorie des ensembles qui coïncide avec la théorie de Zermelo- Fraenkel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette note présente des résultats de deux importants sondages menés en parallèle dans les deux pays. Au Canada, nos données sont tirées du plus récent Canadian Survey on Energy and the Environment (CSEE, Lachapelle et al. 2015) et aux États-Unis, nous rapportons les résultats du National Survey on Energy and the Environment (NSEE). Réalisés au mois de septembre 2015, ces deux sondages ont soumis les mêmes questions à des échantillons représentatifs des populations du Canada et des États-Unis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte: La régurgitation mitrale (RM) est une maladie valvulaire nécessitant une intervention dans les cas les plus grave. Une réparation percutanée de la valve mitrale avec le dispositif MitraClip est un traitement sécuritaire et efficace pour les patients à haut risque chirurgical. Nous voulons évaluer les résultats cliniques et l'impact économique de cette thérapie par rapport à la gestion médicale des patients en insuffisance cardiaque avec insuffisance mitrale symptomatique. Méthodes: L'étude a été composée de deux phases; une étude d'observation de patients souffrant d'insuffisance cardiaque et de régurgitation mitrale traitée avec une thérapie médicale ou le MitraClip, et un modèle économique. Les résultats de l'étude observationnelle ont été utilisés pour estimer les paramètres du modèle de décision, qui a estimé les coûts et les avantages d'une cohorte hypothétique de patients atteints d'insuffisance cardiaque et insuffisance mitrale sévère traitée avec soit un traitement médical standard ou MitraClip. Résultats: La cohorte de patients traités avec le système MitraClip était appariée par score de propension à une population de patients atteints d'insuffisance cardiaque, et leurs résultats ont été comparés. Avec un suivi moyen de 22 mois, la mortalité était de 21% dans la cohorte MitraClip et de 42% dans la cohorte de gestion médicale (p = 0,007). Le modèle de décision a démontré que MitraClip augmente l'espérance de vie de 1,87 à 3,60 années et des années de vie pondérées par la qualité (QALY) de 1,13 à 2,76 ans. Le coût marginal était 52.500 $ dollars canadiens, correspondant à un rapport coût-efficacité différentiel (RCED) de 32,300.00 $ par QALY gagné. Les résultats étaient sensibles à l'avantage de survie. Conclusion: Dans cette cohorte de patients atteints d'insuffisance cardiaque symptomatique et d insuffisance mitrale significative, la thérapie avec le MitraClip est associée à une survie supérieure et est rentable par rapport au traitement médical.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Proporcionar a los evaluadores una serie de procedimientos, instrumentos y técnicas que les permitan evaluar los centros docentes, diagnosticando tanto los puntos débiles como aquellos que alcanzan un nivel más satisfactorio, debido a que éstos se consideran como los principales factores condicionantes de la eficacia institucional. Cómo medir la eficacia de los centros docentes a través de una serie de escalas y cuestionarios. Descripción de cada una de las escalas, metodología de elaboración de las mismas -cómo construirlas y validarlas- y normas de aplicación y corrección. Factores que se evalúan: nivel socio-económico, edificio y dotación, personal docente, modelo organizativo, clima institucional, calidad de los procesos que se desarrollan en las aulas y nivel de satisfacción de familias y alumnos con el centro. Bibliografía. Definición de factores, determinación de las dimensiones constitutivas de cada factor, elaboración de tablas de especificaciones para cada factor, determinación de pesos relativos de cada dimensión, muestreo de cuestiones, determinación de los ítems necesarios, valoración del número y redacción de ítems, calificación de cada ítem en categorías según utilidad, atribución a cada ítem de un valor escalar, selección de los ítems más pertinentes, aplicación piloto y redacción definitiva de los ítems. La fiabilidad o consistencia interna se calculó por el procedimiento de mitades equivalentes mediante los coeficientes de Rulon, Guttman, Spearman-Brown y Kuder-Richardson. Presenta 13 escalas y cuestionarios referidos a: situación socio-económica de las familias, edificio escolar y dotación, personal docente, escala de evaluación del funcionamiento del Consejo Escolar, escala de evaluación del funcionamiento del equipo directivo, escala de evaluación del funcionamiento del Claustro, escala de evaluación del Departamento, escala de evaluación de los equipos de ciclo, escala de evaluación de los equipos de nivel, cuestionario de evaluación del clima del centro, escala de evaluación de los procesos del aula, cuestionario a alumnos y cuestionario a familias. También presenta guiones para entrevistar a: padres, profesores y alumnos del Consejo Escolar, profesores sobre el clima del centro, padres y alumnos sobre su grado de satisfacción con el centro. Las pautas de evaluación de la eficacia de los centros docentes permiten la evaluación del centro como totalidad, ofreciendo una visión globalizadora de los principales factores del centro y/o específica de dichos factores.