976 resultados para Calcul coût bénéfice


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les médicaments anticancéreux sont souvent caractérisés par une importante variabilité pharmacocinétique interindividuelle, des relations entre concentration et réponse clinique et une marge thérapeutique étroite. Pourtant, le suivi thérapeutique des concentrations de ces médicaments (TDM) est encore rare en oncologie. Les bases scientifiques justifiant un TDM des nouvelles thérapies ciblées orales sont encore très hétérogènes. Cependant, d'assez solides évidences existent pour l'imatinib et certaines apparaissent progressivement pour d'autres composés. A côté de cela, le TDM est aussi pratiqué dans des situations spécifiques de traitement par certaines chimiothérapies conventionnelles. Des efforts considérables restent toutefois à réaliser pour mieux caractériser la pharmacocinétique de ces médicaments, pour préciser leurs relations concentration-effet et pour conduire des études prospectives randomisées évaluant le bénéfice clinique de l'approche TDM en oncologie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Améliorer la coordination des soins est un des points cardinaux de la politique Vieillissement et Santé du canton de Vaud. Ceci se traduit notamment par une volonté d'optimiser l'accès des personnes âgées à l'information médico-sociale. Un des projets qui en découle consiste à mettre en place un guichet intégré, soit un système centralisé, qui permettrait d'être renseigné·e ou orienté·e sur les prestations existantes efficacement et correctement, quelle que soit l'entité à laquelle on s'adresse. C'est dans ce contexte que le Centre d'Observation et d'Analyse du Vieillissement (COAV) a réalisé en 2013 une enquête sur l'accès à l'information médico-sociale auprès des personnes de 65 ans et plus non-institutionnalisées du canton. Ses résultats montrent que : ? Les besoins en prestations médico-sociales sont potentiellement importants car ces dernières sont susceptibles d'intéresser directement, du fait de difficultés fonctionnelles, un peu plus d'un tiers des personnes non institutionnalisées de plus de 65 ans, et indirectement 17 % des personnes du même âge qui sont aussi des aidant·e·s. Les femmes et les personnes bénéficiant de prestations complémentaires à l'assurance vieillesse (PC), étant plus fragiles, sont particulièrement concernées. ? Si cette population a potentiellement d'importants besoins en prestations médico-sociales, les portes d'accès à l'information sur ces prestations restent dans leur ensemble encore mal connues, même si l'on observe de grandes variations selon le type de services en question (selon les prestations, 27% à 57% des personnes interrogées ont déclaré ne pas savoir où s'adresser pour trouver de l'information à leur sujet). ? Les femmes, les personnes recevant des PC, ainsi que les personnes vulnérables et dépendantes sont proportionnellement plus actives dans la recherche d'information. ? Bien que les personnes ayant récemment eu l'occasion de rechercher de l'information sur certaines prestations médico-sociales semblent mieux connaître le système, 7% d'entre elles ont qualifié cette information de plutôt indisponible, 21% d'incomplète, 33% de dispersée et 15% de contradictoire. ? Deux tiers des personnes âgées pensent que l'information médico-sociale devrait être plus accessible sur l'existence de prestations, leur coût et les possibilités d'aide financière pour pouvoir en bénéficier. ? Parmi les personnes n'ayant pas récemment recherché d'information, les habitants de la région Nord sauraient plus souvent où s'adresser pour s'informer que ceux des autres régions. RAISONS DE SANTÉ 221 ? Etre un homme, être défavorisé financièrement (présence de PC) et, au niveau du statut fonctionnel, être vulnérable plutôt que robuste, sont des facteurs de risque d'accès limité à l'information. ? Les mêmes facteurs de risque se retrouvent en conduisant les analyses par type de prestations, excepté pour l'aide relative aux démarches administratives. L'information sur cette aide est mieux connue des personnes recevant des PC parmi celles ayant récemment recherché de l'information. ? Il n'a cependant pas été possible d'identifier un profil-type de la personne à risque face à l'accès à l'information sur la base des données socio-démographiques et fonctionnelles disponibles. ? D'autre part, cette enquête a mis en évidence le fait que le médecin traitant (désigné par 77% des individus) et le CMS (64 %), ainsi que, dans une moindre mesure, la commune (35%), sont les acteurs vers lesquelles les personnes âgées du canton se dirigeraient le plus volontiers pour trouver des informations sur diverses prestations médico-sociales. ? Cependant, au vu des variations constatées en comparant certains sous-groupes, d'autres sources ne sont pas à négliger lors de la mise en place d'un guichet intégré (telles qu'Internet, les EMS, Pro Senectute, les pharmacies, les BRIO, les hôpitaux, la garde médicale, etc.). Cette enquête montre que malgré les efforts entrepris pour faire connaître les prestations médico-sociales, une proportion non négligeable de ces services est peu connue des bénéficiaires potentiels. Ainsi, il serait intéressant de réitérer une telle étude après la mise en place du guichet intégré afin de pouvoir évaluer son impact.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estudi retrospectiu que analitza les característiques de l’apertura palpebral en 22 pacients amb regeneració aberrant secundària a paràlisi adquirida del III nervi cranial. S’ha estudiat el percentatge d’apertura palpebral de l’ull parètic respecte a la posició primària i respecte a l’ull sà en 5 posicions de la mirada i la relació entre l’apertura palpebral en adducció i en depressió respecte a la posició primària mitjançant regressió lineal. S’ha comprovat que, rere un quadre de regeneració aberrant, no només hi ha una recuperació parcial o total de la parpella en posició primària, sinó una retracció palpebral en adducció i en depressió.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

0 Abstract L'incidence du mélanome est en nette augmentation en Europe et aux Etats-Unis. La Chirurgie peut être curative au stade précoce de la maladie,la radiothérapie se pratique À visée palliative, les chimiothérapies n'ont montré que peu d'effet. Les progress actuels se font via l'immunothérapie. Des traitements par l'interleukine-2 et l'interféron-α se sont montrés efficaces chez certains patients, mais leur utilisation est limitée par leur forte toxicité. Depuis 2011, en Suisse, une nouvelle molécule a été mise sur le marché, l'ipilimumab (Yervoy®). Il s'agit d'un anticorps! monoclonal humain dirigé contre le CTLA4. Il en résulte une activation non spécifique du système immunitaire. Une étude randomisée de phase IIIa été conduite au Etats-Unis. Elle démontre une augmentation de la survie chez les patients atteints de melanoma métastatique traits par ipilimumab, sans traitement préalable des métastases. Le but de cette etude est de determiner s'il est possible, par le biais de l'imagerie PET-CTau 18F-FDG, de prédire la réponse individuelle au traitement par ipilimumab, afin d'optimiser la prise en charge de ces patients. 0.1 Méthode Les patients atteints de mélanome métastatique sont exposés au traitement d'ipilimumab selon les recommandations de Bristol-Myers Squibb. Puis ils effectuent des PET-CT au F-18-FDG selon! le! protocole (CER 400/11, annexé) de l'étude. Les images sont!analysées selon les critères PERCIST (PETResponse Criterias In Solid Tumors) et le TLG (Total Lesion Glycolysis) est calculé. Parallèlement, des prises de sang sont effectuées et les échantillons sont analysés à l'institut Ludwig (LICR, Unil) selon les critères imRC qui determinant la réponse immunologique au traitement. 0.2 Résultats Nous notons une discrépance dans les résultats. Lorsque nous observons une maladie stable avec les critères immunologiques imRC, nous observons une maladie progressive avec lescritères PERCIST. 0.3 Discussion - Conclusion Nous n'avons pu faire entrer que cinq patients dans l'étude, dont trois étaient vivants à trois mois, ce qui a restreint le nombre de données analysables. Les discrépances que nous observons dans nos résultats pourraient être dues au fait que le PET-CT au 18FDG ne nous permet pas de différencier l'activité tumorale de l'activité inflammatoire péri-tumorale. Ce biais pourrait être à l'avenir prévenu en utilisant du 18FLT, un marqueur plus sélectif des cellules tumorales.L'analyse desimages avec les critères de total-lesion glycolysis a été impossible au vu du nombre de lésions que présentaient certains patients. Les critères PERCIST exigent un protocole d'acquisition très strict. La corrélation entre les images, les données immunologiques et la clinique mérite d'être suivie sur le long terme, car il pourrait y avoir une réponse positive plus tardive du traitement par ipilimumab.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El present document representa l’estudi per la selecció de CAG pel procés de potabilització de l’ETAP Ter a partir d’un disseny experimental de planta pilot de menor escala. Es determina l'adequació de carbó en base a les característiques físiques (superfície BET, índex de iode...) i la capacitat d’eliminació de COT i UV respecte la mostra a tractar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cet article présente le nouveau modèle de remboursement proposé par l'industrie pharmaceutique pour des traitements très coûteux : le "capping model" ou CAP. Les autorités acceptent le remboursement d'un montant plafond et l'industrie prend en charge un éventuel dépassement de coût du traitement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract : In the subject of fingerprints, the rise of computers tools made it possible to create powerful automated search algorithms. These algorithms allow, inter alia, to compare a fingermark to a fingerprint database and therefore to establish a link between the mark and a known source. With the growth of the capacities of these systems and of data storage, as well as increasing collaboration between police services on the international level, the size of these databases increases. The current challenge for the field of fingerprint identification consists of the growth of these databases, which makes it possible to find impressions that are very similar but coming from distinct fingers. However and simultaneously, this data and these systems allow a description of the variability between different impressions from a same finger and between impressions from different fingers. This statistical description of the withinand between-finger variabilities computed on the basis of minutiae and their relative positions can then be utilized in a statistical approach to interpretation. The computation of a likelihood ratio, employing simultaneously the comparison between the mark and the print of the case, the within-variability of the suspects' finger and the between-variability of the mark with respect to a database, can then be based on representative data. Thus, these data allow an evaluation which may be more detailed than that obtained by the application of rules established long before the advent of these large databases or by the specialists experience. The goal of the present thesis is to evaluate likelihood ratios, computed based on the scores of an automated fingerprint identification system when the source of the tested and compared marks is known. These ratios must support the hypothesis which it is known to be true. Moreover, they should support this hypothesis more and more strongly with the addition of information in the form of additional minutiae. For the modeling of within- and between-variability, the necessary data were defined, and acquired for one finger of a first donor, and two fingers of a second donor. The database used for between-variability includes approximately 600000 inked prints. The minimal number of observations necessary for a robust estimation was determined for the two distributions used. Factors which influence these distributions were also analyzed: the number of minutiae included in the configuration and the configuration as such for both distributions, as well as the finger number and the general pattern for between-variability, and the orientation of the minutiae for within-variability. In the present study, the only factor for which no influence has been shown is the orientation of minutiae The results show that the likelihood ratios resulting from the use of the scores of an AFIS can be used for evaluation. Relatively low rates of likelihood ratios supporting the hypothesis known to be false have been obtained. The maximum rate of likelihood ratios supporting the hypothesis that the two impressions were left by the same finger when the impressions came from different fingers obtained is of 5.2 %, for a configuration of 6 minutiae. When a 7th then an 8th minutia are added, this rate lowers to 3.2 %, then to 0.8 %. In parallel, for these same configurations, the likelihood ratios obtained are on average of the order of 100,1000, and 10000 for 6,7 and 8 minutiae when the two impressions come from the same finger. These likelihood ratios can therefore be an important aid for decision making. Both positive evolutions linked to the addition of minutiae (a drop in the rates of likelihood ratios which can lead to an erroneous decision and an increase in the value of the likelihood ratio) were observed in a systematic way within the framework of the study. Approximations based on 3 scores for within-variability and on 10 scores for between-variability were found, and showed satisfactory results. Résumé : Dans le domaine des empreintes digitales, l'essor des outils informatisés a permis de créer de puissants algorithmes de recherche automatique. Ces algorithmes permettent, entre autres, de comparer une trace à une banque de données d'empreintes digitales de source connue. Ainsi, le lien entre la trace et l'une de ces sources peut être établi. Avec la croissance des capacités de ces systèmes, des potentiels de stockage de données, ainsi qu'avec une collaboration accrue au niveau international entre les services de police, la taille des banques de données augmente. Le défi actuel pour le domaine de l'identification par empreintes digitales consiste en la croissance de ces banques de données, qui peut permettre de trouver des impressions très similaires mais provenant de doigts distincts. Toutefois et simultanément, ces données et ces systèmes permettent une description des variabilités entre différentes appositions d'un même doigt, et entre les appositions de différents doigts, basées sur des larges quantités de données. Cette description statistique de l'intra- et de l'intervariabilité calculée à partir des minuties et de leurs positions relatives va s'insérer dans une approche d'interprétation probabiliste. Le calcul d'un rapport de vraisemblance, qui fait intervenir simultanément la comparaison entre la trace et l'empreinte du cas, ainsi que l'intravariabilité du doigt du suspect et l'intervariabilité de la trace par rapport à une banque de données, peut alors se baser sur des jeux de données représentatifs. Ainsi, ces données permettent d'aboutir à une évaluation beaucoup plus fine que celle obtenue par l'application de règles établies bien avant l'avènement de ces grandes banques ou par la seule expérience du spécialiste. L'objectif de la présente thèse est d'évaluer des rapports de vraisemblance calcul és à partir des scores d'un système automatique lorsqu'on connaît la source des traces testées et comparées. Ces rapports doivent soutenir l'hypothèse dont il est connu qu'elle est vraie. De plus, ils devraient soutenir de plus en plus fortement cette hypothèse avec l'ajout d'information sous la forme de minuties additionnelles. Pour la modélisation de l'intra- et l'intervariabilité, les données nécessaires ont été définies, et acquises pour un doigt d'un premier donneur, et deux doigts d'un second donneur. La banque de données utilisée pour l'intervariabilité inclut environ 600000 empreintes encrées. Le nombre minimal d'observations nécessaire pour une estimation robuste a été déterminé pour les deux distributions utilisées. Des facteurs qui influencent ces distributions ont, par la suite, été analysés: le nombre de minuties inclus dans la configuration et la configuration en tant que telle pour les deux distributions, ainsi que le numéro du doigt et le dessin général pour l'intervariabilité, et la orientation des minuties pour l'intravariabilité. Parmi tous ces facteurs, l'orientation des minuties est le seul dont une influence n'a pas été démontrée dans la présente étude. Les résultats montrent que les rapports de vraisemblance issus de l'utilisation des scores de l'AFIS peuvent être utilisés à des fins évaluatifs. Des taux de rapports de vraisemblance relativement bas soutiennent l'hypothèse que l'on sait fausse. Le taux maximal de rapports de vraisemblance soutenant l'hypothèse que les deux impressions aient été laissées par le même doigt alors qu'en réalité les impressions viennent de doigts différents obtenu est de 5.2%, pour une configuration de 6 minuties. Lorsqu'une 7ème puis une 8ème minutie sont ajoutées, ce taux baisse d'abord à 3.2%, puis à 0.8%. Parallèlement, pour ces mêmes configurations, les rapports de vraisemblance sont en moyenne de l'ordre de 100, 1000, et 10000 pour 6, 7 et 8 minuties lorsque les deux impressions proviennent du même doigt. Ces rapports de vraisemblance peuvent donc apporter un soutien important à la prise de décision. Les deux évolutions positives liées à l'ajout de minuties (baisse des taux qui peuvent amener à une décision erronée et augmentation de la valeur du rapport de vraisemblance) ont été observées de façon systématique dans le cadre de l'étude. Des approximations basées sur 3 scores pour l'intravariabilité et sur 10 scores pour l'intervariabilité ont été trouvées, et ont montré des résultats satisfaisants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectiu :aplicar la taula FRAX i els dintells de la National Osteoporosis Guideline Group (NOGG) a les sol·licituds de densitometria en el nostre medi. Mètode:Estudi observacional, transversal . 1.650 dones (50-90 anys) sense tractament per a la osteoporosi. Es va fer la densitometria òssia central, se va calcular el risc de fractura als 10 anys (FRAX) i es va estratificar (criteris de la NOGG : risc alt, entremig o baix). Resultats:Risc alt:64 casos [3,9 %, IC 95%: 3,0 %– 4,9%] , baix 1329 [80,5 %, IC 95%: 78,6 %– 82,4%]. Requereixen densitometria el 25,2%. Conclusió. Utilitzar la taula FRAX aplicant els dintells de les guies NOGG reduiria les densitometries necessàries.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le développement de méthodes de mesure de la qualité des soins et les actions visant à son amélioration font partie intégrante de la pratique quotidienne. Les infections nosocomiales représentent un Indicateur Incontournable et leur prévention apparaît comme un champ d'action privilégié du concept de l'amélioration continue de la qualité des soins. Dans ce domaine, de nombreuses mesures ont fait l'objet d'études répondant à des critères méthodologiques de qualité élevée, dont les résultats sont hautement significatifs au plan statistique. Les interventions complexes concernant par exemple l'ensemble des patients d'un service ou d'une institution ne permettent que difficilement de satisfaire à ces exigences méthodologiques. Sous certaines conditions, elle peuvent cependant avoir un impact réel et parfois durable sur la qualité des soins. A titre d'exemple, nous discutons deux interventions complexes dans le domaine de la prévention des infections nosocomiales, résultant de démarches visant à une amélioration globale et durable de la qualité des soins. L'utilisation d'outils épidémiologiques adaptés permet également d'estimer le bénéfice des Interventions en milieu hospitalier conformément à ce que la communauté scientifique reconnaît comme étant une recherche clinique de qualité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cadre de l'étude La part des dépenses de santé dans les budgets des pays occidentaux est importante et tend à croître depuis plusieurs décennies. Une des conséquences, notamment pour la Suisse, est une augmentation régulière des primes d'assurance maladie, dont l'impopularité incite les responsables politiques à trouver des stratégies de frein à la croissance des coûts de la santé. Les médicaments, qui contribuent notablement à l'augmentation de ces coûts, constituent l'une des cibles classiques d'interventions visant à une réduction des dépenses de santé. Le niveau de coûts des médicaments représente plus de 20% des dépenses de soins du domaine ambulatoire à la charge de l'assurance obligatoire des soins (AOS), soit une dépense annuelle de plus de 4 milliards de francs. Différentes mesures peuvent être utilisées par le gouvernement pour contenir cette facture à charge de la collectivité : baisse du prix des médicaments, limitation du nombre de produits remboursés par l'assurance de base et incitations à la concurrence sur les prix en autorisant les importations parallèles. Depuis que de plus en plus de brevets pour des médicaments sont arrivés à échéance, un autre angle d'attaque s'est concrétisé avec l'incitation à la prescription de médicaments génériques. Les génériques sont définis comme des produits thérapeutiques chimiquement identiques à des composés déjà utilisés, appelés médicaments originaux. En principe, une économie substantielle devrait pouvoir être réalisée sur les coûts totaux des médicaments si tous les génériques disponibles sur le marché étaient systématiquement prescrits par les professionnels et acceptés par les patients. Les résultats publiés par les caisses maladie et les offices fédéraux sont des estimations globales et les montants publiés par l'industrie pharmaceutique concernent l'ensemble du marché, incluant les médicaments utilisés dans les séjours hospitaliers, sont par ailleurs exprimés en prix de fabrique. De plus, aucune étude n'a tenu compte de la substituabilité des produits d'un point de vue pharmaceutique. L'objectif général de la thèse est d'évaluer aussi précisément que possible l'économie pouvant être encore réalisée dans le secteur ambulatoire en substituant aux médicaments originaux les produits génériques présents sur le marché et de caractériser plusieurs facteurs qui influencent la substitution générique. Pour cette étude, nous avons pu disposer de l'ensemble des factures pharmaceutiques de la caisse maladie CSS, pour tous ses assurés des cantons d'Argovie, du Tessin et de Vaud, soit plus de 169'000 assurés représentant les trois régions linguistiques de la Suisse. Les 1'341'197 prescriptions médicales qui ont été analysées concernent l'année 2003. C'est un moment critique dans l'histoire des génériques en Suisse, approprié pour établir un premier bilan après l'entrée en vigueur de la première mesure relative au droit de substituer octroyé en 2001 aux pharmaciens et, pour identifier idéalement les principaux déterminants de la substitution par les praticiens avant l'introduction de la quote-part différenciée en 2006. La présence d'un même principe actif n'est pas une condition suffisante pour permettre une substitution et pour ce travail des critères tenant compte des caractéristiques pharmaceutiques des produits ont été établis et appliqués pour valider la substituabilité des originaux par les génériques disponibles sur le marché. Ces critères concernent notamment le mode d'administration, le dosage et le nombre de doses dans l'emballage. L'étude a été réalisée selon deux approches, d'abord par une analyse descriptive sur l'ensemble de la population source pour estimer le marché des génériques et ensuite par une analyse statistique (régression logit multivariée) sur 173'212 prescriptions agrégées, qui concernent spécifiquement soit un générique soit un original substituable, pour caractériser les facteurs déterminants de la substitution générique. Résultats Dans l'ensemble de la population source, les génériques et les originaux substituables représentent 17,4% du marché en termes de coûts facturés, avec 3,4% de génériques et 14,0% d'originaux substituables ce qui correspond à un taux de substitution de 19,5%. En termes de dépenses, les substitutions génériques réalisées représentent une économie de 1,3% du total du marché étudié alors qu'il reste un potentiel notable d'économie par la substitution de 4,6%. Les taux de substitution sont très variables selon les cantons : 10,1% au Tessin, 29,0% pour le canton de Vaud et 35,8% pour Argovie. L'analyse univariée des 173'212 prescriptions de génériques ou d'originaux substituables, montre des taux de substitution plus élevés chez les patients jeunes et lorsqu'il y a d'importantes différences de prix entre les originaux et les génériques. Des taux de substitution peu élevés sont observés chez les patients les plus âgés et pour ceux qui ont des traitements médicamenteux complexes. Les patients ayant plus de 10 médicaments différents durant la même année, présentent une probabilité relative de substituer inférieure (-24%) par rapport aux patients ayant 6 à 10 médicaments différents dans l'année. Cependant, l'analyse multivariée montre que l'effet négatif sur le taux de substitution de l'âge combiné à la complexité des traitements n'excède pas 3%. Bien que le niveau de franchises et la participation financière à la quote-part soient liées à une augmentation de la prescription de génériques, leurs effets sont modérés pour les patients avec des franchises supérieures à 300 francs (effet marginal de 1%) et pour les patients qui n'ont pas atteint le plafond de participation (effet marginal de 2%). La différence de taux substitution entre les médecins hospitaliers et les spécialistes est diminuée de façon notable (effet marginal de -13%) et elle est cependant moins marquée avec les médecins généralistes (effet marginal de -3%). Les facteurs associés au marché ont une influence notable sur la substitution générique et des effets positifs sont observés avec l'augmentation de la taille du marché, du nombre de génériques pour un même original substituable et de l'économie relative entre l'original et le générique. Par contre, la diversification des formes galéniques et des tailles d'emballages au niveau de l'offre des médicaments originaux a des effets fortement négatifs sur la substitution générique (-7%). Le canton de domicile a aussi un impact notable sur la substitution et le canton du Tessin présente un taux plus bas (-26%) que le canton d'Argovie. Conclusion et perspectives Ce travail a montré qu'il y a encore un important potentiel d'économies à réaliser par la substitution générique, calculé à plus de 4% des dépenses pharmaceutiques prises en charge par l'AOS en ambulatoires. Une extrapolation à l'ensemble du marché suisse, qui doit être faite avec prudence, fait apparaître un potentiel d'économies de 127 millions pour les médicaments délivrés par les pharmacies en 2003. L'étude a mis en évidence un certain nombre de déterminants qui freinent la substitution générique, notamment la prescription par un médecin hospitalier. Sur ce point la prescription en DCI (dénomination commune internationale) pourrait favoriser la dispensation de génériques moins chers. Un taux de substitution plus faible est observé chez les patients âgés avec des traitements complexes. Ce constat peut être mis en relation avec la crainte d'avoir un traitement moins efficace ou moins bien supporté et les risques de confusion lors du passage d'un original substituable à un générique ou d'un générique à un autre générique. Sur ces éléments, l'indication claire et précise du nom de la substance, aussi bien sur les emballages des originaux substituables que sur ceux des génériques, pourrait rassurer les patients et diminuer les risques d'erreurs dans la prise des médicaments. Certaines précautions à prendre lors de la prescription de génériques sont reconnues, notamment pour les médicaments à faible marge thérapeutique, et des informations sur la bioéquivalence, régulièrement mises à jour et à disposition des professionnels, pourraient augmenter la confiance dans l'utilisation des génériques. Les industries pharmaceutiques préservent par différentes tactiques leurs parts de marché et notamment avec succès en introduisant de nouvelles formes galéniques juste avant l'expiration des brevets. Des directives complémentaires sur la fixation des prix pour le remboursement, en particulier l'introduction d'un prix de référence quelle que soit la forme galénique, pourraient diminuer l'effet de barrage des médicaments originaux. Les incitations économiques, telles que la franchise et les participations sont efficaces si l'on considère l'impact sur les taux de substitution. Leur effet global reste toutefois modeste et il serait nécessaire de mesurer concrètement l'impact de l'introduction en 2006 de la quote-part différenciée. Les différences de prix entre les originaux et les génériques exigées à 50% pour les gros marchés, c'est-à-dire de plus de 16 millions, devraient aussi avoir un impact qu'il serait opportun de mesurer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé grand public :Le cerveau se compose de cellules nerveuses appelées neurones et de cellules gliales dont font partie les astrocytes. Les neurones communiquent entre eux par signaux électriques et en libérant des molécules de signalisation comme le glutamate. Les astrocytes ont eux pour charge de capter le glucose depuis le sang circulant dans les vaisseaux sanguins, de le transformer et de le transmettre aux neurones pour qu'ils puissent l'utiliser comme source d'énergie. L'astrocyte peut ensuite utiliser ce glucose de deux façons différentes pour produire de l'énergie : la première s'opère dans des structures appelées mitochondries qui sont capables de produire plus de trente molécules riches en énergie (ATP) à partir d'une seule molécule de glucose ; la seconde possibilité appelée glycolyse peut produire deux molécules d'ATP et un dérivé du glucose appelé lactate. Une théorie couramment débattue propose que lorsque les astrocytes capturent le glutamate libéré par les neurones, ils libèrent en réponse du lactate qui servirait de base énergétique aux neurones. Cependant, ce mécanisme n'envisage pas une augmentation de l'activité des mitochondries des astrocytes, ce qui serait pourtant bien plus efficace pour produire de l'énergie.En utilisant la microscopie par fluorescence, nous avons pu mesurer les changements de concentrations ioniques dans les mitochondries d'astrocytes soumis à une stimulation glutamatergique. Nous avons démontré que les mitochondries des astrocytes manifestent des augmentations spontanées et transitoires de leur concentrations ioniques, dont la fréquence était diminuée au cours d'une stimulation avec du glutamate. Nous avons ensuite montré que la capture de glutamate augmentait la concentration en sodium et acidifiait les mitochondries des astrocytes. En approfondissant ces mécanismes, plusieurs éléments ont suggéré que l'acidification induite diminuerait le potentiel de synthèse d'énergie d'origine mitochondriale et la consommation d'oxygène dans les astrocytes. En résumé, l'ensemble de ces travaux suggère que la signalisation neuronale impliquant le glutamate dicte aux astrocytes de sacrifier temporairement l'efficacité de leur métabolisme énergétique, en diminuant l'activité de leurs mitochondries, afin d'augmenter la disponibilité des ressources énergétiques utiles aux neurones.Résumé :La remarquable efficacité du cerveau à compiler et propager des informations coûte au corps humain 20% de son budget énergétique total. Par conséquent, les mécanismes cellulaires responsables du métabolisme énergétique cérébral se sont adéquatement développés pour répondre aux besoins énergétiques du cerveau. Les dernières découvertes en neuroénergétique tendent à démontrer que le site principal de consommation d'énergie dans le cerveau est situé dans les processus astrocytaires qui entourent les synapses excitatrices. Un nombre croissant de preuves scientifiques a maintenant montré que le transport astrocytaire de glutamate est responsable d'un coût métabolique important qui est majoritairement pris en charge par une augmentation de l'activité glycolytique. Cependant, les astrocytes possèdent également un important métabolisme énergétique de type mitochondrial. Par conséquent, la localisation spatiale des mitochondries à proximité des transporteurs de glutamate suggère l'existence d'un mécanisme régulant le métabolisme énergétique astrocytaire, en particulier le métabolisme mitochondrial.Afin de fournir une explication à ce paradoxe énergétique, nous avons utilisé des techniques d'imagerie par fluorescence pour mesurer les modifications de concentrations ioniques spontanées et évoquées par une stimulation glutamatergique dans des astrocytes corticaux de souris. Nous avons montré que les mitochondries d'astrocytes au repos manifestaient des changements individuels, spontanés et sélectifs de leur potentiel électrique, de leur pH et de leur concentration en sodium. Nous avons trouvé que le glutamate diminuait la fréquence des augmentations spontanées de sodium en diminuant le niveau cellulaire d'ATP. Nous avons ensuite étudié la possibilité d'une régulation du métabolisme mitochondrial astrocytaire par le glutamate. Nous avons montré que le glutamate initie dans la population mitochondriale une augmentation rapide de la concentration en sodium due à l'augmentation cytosolique de sodium. Nous avons également montré que le relâchement neuronal de glutamate induit une acidification mitochondriale dans les astrocytes. Nos résultats ont indiqué que l'acidification induite par le glutamate induit une diminution de la production de radicaux libres et de la consommation d'oxygène par les astrocytes. Ces études ont montré que les mitochondries des astrocytes sont régulées individuellement et adaptent leur activité selon l'environnement intracellulaire. L'adaptation dynamique du métabolisme énergétique mitochondrial opéré par le glutamate permet d'augmenter la quantité d'oxygène disponible et amène au relâchement de lactate, tous deux bénéfiques pour les neurones.Abstract :The remarkable efficiency of the brain to compute and communicate information costs the body 20% of its total energy budget. Therefore, the cellular mechanisms responsible for brain energy metabolism developed adequately to face the energy needs. Recent advances in neuroenergetics tend to indicate that the main site of energy consumption in the brain is the astroglial process ensheating activated excitatory synapses. A large body of evidence has now shown that glutamate uptake by astrocytes surrounding synapses is responsible for a significant metabolic cost, whose metabolic response is apparently mainly glycolytic. However, astrocytes have also a significant mitochondrial oxidative metabolism. Therefore, the location of mitochondria close to glutamate transporters raises the question of the existence of mechanisms for tuning their energy metabolism, in particular their mitochondrial metabolism.To tackle these issues, we used real time imaging techniques to study mitochondrial ionic alterations occurring at resting state and during glutamatergic stimulation of mouse cortical astrocytes. We showed that mitochondria of intact resting astrocytes exhibited individual spontaneous and selective alterations of their electrical potential, pH and Na+ concentration. We found that glutamate decreased the frequency of mitochondrial Na+ transient activity by decreasing the cellular level of ATP. We then investigated a possible link between glutamatergic transmission and mitochondrial metabolism in astrocytes. We showed that glutamate triggered a rapid Na+ concentration increase in the mitochondrial population as a result of plasma-membrane Na+-dependent uptake. We then demonstrated that neuronally released glutamate also induced a mitochondrial acidification in astrocytes. Glutamate induced a pH-mediated and cytoprotective decrease of mitochondrial metabolism that diminished oxygen consumption. Taken together, these studies showed that astrocytes contain mitochondria that are individually regulated and sense the intracellular environment to modulate their own activity. The dynamic regulation of astrocyte mitochondrial energy output operated by glutamate allows increasing oxygen availability and lactate production both being beneficial for neurons.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME L'anévrysme de l'aorte abdominale est une dilatation permanente et localisée de l'aorte abdominale d'un diamètre transverse supérieur à 30 mm. Il s'agit d'une maladie dégénérative et inflammatoire fréquente de l'aorte, présente chez environ 5% des hommes de 65 à 74 ans de la population générale, et chez 10% des hommes hospitalisés pour une revascularisation coronarienne chirurgicale. En effet, bien que la pathogenèse de l'anévrysme de l'aorte abdominale diffère de celle du processus d'athérosclérose, les deux maladies partagent de nombreux facteurs de risque, en particulier l'âge, l'hypertension artérielle et le tabagisme. L'anévrysme de l'aorte abdominale est une maladie silencieuse, et dans 20% des cas, sa première manifestation clinique est la rupture aiguë avec choc hémorragique. La mortalité totale d'une telle complication dépasse 90% et sa mortalité strictement opératoire est d'environ 50%. Ces chiffres contrastent étonnamment avec une mortalité inférieure à 5% en cas de cure chirurgicale élective de l'anévrysme, justifiant un programme de dépistage systématique de cette maladie par ultrasonographie abdominale. Plusieurs études ont actuellement prouvé l'efficience de tels programmes, tant du point de vue de leur impact sur la mortalité que de leur rapport coût-efficacité. La question d'un dépistage systématique de la population générale ou de celui de souspopulations sélectionnées en fonction de leurs facteurs de risque reste toutefois débattue. La prise en charge de l'anévrysme de l'aorte abdominale est en principe conservatrice pour les anévrysmes de faibles diamètres, la mortalité d'une telle approche étant comparable à celle d'une attitude d'emblée chirurgicale. L'indication opératoire est par contre posée pour les anévrysmes d'un diamètre supérieur à 55 mm en raison du risque inacceptable de rupture, la valeur du diamètre transverse de l'aorte représentant le facteur prédictif de rupture le plus fréquemment utilisé en pratique quotidienne. La cure chirurgicale ouverte est le traitement de référence de l'anévrysme de l'aorte abdominale, mais la cure minimale invasive par endoprothèse, disponible depuis le début des années 1990, représente une alternative attrayante. Le choix de l'approche thérapeutique dépend fortement des caractéristiques anatomiques de l'aorte, ainsi que des comorbidités et de la préférence du patient.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les coûts de traitement de certains patients s'avèrent extrêmement élevés, et peuvent faire soupçonner une prise en charge médicale inadéquate. Comme I'évolution du remboursement des prestations hospitalières passe à des forfaits par pathologie, il est essentiel de vérifier ce point, d'essayer de déterminer si ce type de patients peut être identifié à leur admission, et de s'assurer que leur devenir soit acceptable. Pour les années 1995 et 1997. les coûts de traitement dépassant de 6 déviations standard le coût moyen de la catégorie diagnostique APDRG ont été identifiés, et les dossiers des 50 patients dont les coûts variables étaient les plus élevés ont été analysés. Le nombre total de patients dont I'hospitalisation a entraîné des coûts extrêmes a passé de 391 en 1995 à 328 patients en 1997 (-16%). En ce qui concerne les 50 patients ayant entraîné les prises en charge les plus chères de manière absolue, les longs séjours dans de multiples services sont fréquents, mais 90% des patients sont sortis de l'hôpital en vie, et près de la moitié directement à domicile. Ils présentaient une variabilité importante de diagnostics et d'interventions, mais pas d'évidence de prise en charge inadéquate. En conclusion, les patients qualifiés de cas extrêmes sur un plan économique, ne le sont pas sur un plan strictement médical, et leur devenir est bon. Face à la pression qu'exercera le passage à un mode de financement par pathologie, les hôpitaux doivent mettre au point un système de revue interne de I'adéquation des prestations fournies basées sur des caractéristiques cliniques, s'ils veulent garantir des soins de qualité. et identifier les éventuelles prestations sous-optimales qu'ils pourraient être amenés à délivrer. [Auteurs] Treatment costs for some patients are extremely high and might let think that medical care could have been inadequate. As hospital financing systems move towards reimbursement by diagnostic groups, it is essential to assess whether inadequate care is provided, to try to identify these patients upon admission, and make sure that their outcome is good. For the years 1995 and 1997, treatment costs exceeding by 6 standard deviations the average cost of their APDRG category were identified, and the charts of the 50 patients with the highest variable costs were analyzed. The total number of patients with such extreme costs diminished from 391 in 1995 to 328 in 1997 (-16%). For the 50 most expensive patients, long stays in several services were frequent, but 90% of these patients left the hospital alive, and about half directly to their home. They presented an important variation in diagnoses and operations, but no evidence for inadequate care. Thus, patients qualified as extreme from an economic perspective cannot be qualified as such from a medical perspective, and their outcome is good. To face the pressure linked with the change in financing system, hospitals must develop an internal review system for assessing the adequacy of care, based on clinical characteristics, if they want to guarantee good quality of care and identify potentially inadequate practice.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'utilisation de l'Internet comme medium pour faire ses courses et achats a vu une croissance exponentielle. Cependant, 99% des nouveaux business en ligne échouent. La plupart des acheteurs en ligne ne reviennent pas pour un ré-achat et 60% abandonnent leur chariot avant de conclure l'achat. En effet, après le premier achat, la rétention du consommateur en ligne devient critique au succès du vendeur de commerce électronique. Retenir des consommateurs peut sauver des coûts, accroître les profits, et permet de gagner un avantage compétitif.Les recherches précédentes ont identifié la loyauté comme étant le facteur le plus important dans la rétention du consommateur, et l'engagement ("commitment") comme étant un des facteurs les plus importants en marketing relationnel, offrant une réflexion sur la loyauté. Pourtant, nous n'avons pu trouver d'étude en commerce électronique examinant l'impact de la loyauté en ligne et de l'engagement en ligne ("online commitment") sur le ré-achat en ligne. Un des avantages de l'achat en ligne c'est la capacité à chercher le meilleur prix avec un clic. Pourtant, nous n'avons pu trouver de recherche empirique en commerce électronique qui examinait l'impact de la perception post-achat du prix sur le ré-achat en ligne.L'objectif de cette recherche est de développer un modèle théorique visant à comprendre le ré-achat en ligne, ou la continuité d'achat ("purchase continuance") du même magasin en ligne.Notre modèle de recherche a été testé dans un contexte de commerce électronique réel, sur un échantillon total de 1,866 vrais acheteurs d'un même magasin en ligne. L'étude est centrée sur le ré-achat. Par conséquent, les répondants sélectionnés aléatoirement devaient avoir acheté au moins une fois de ce magasin en ligne avant le début de l'enquête. Cinq mois plus tard, nous avons suivi les répondants pour voir s'ils étaient effectivement revenus pour un ré-achat.Notre analyse démontre que l'intention de ré-achat en ligne n'a pas d'impact significatif sur le ré-achat en ligne. La perception post-achat du prix en ligne ("post-purchase Price perception") et l'engagement normatif en ligne ("Normative Commitment") n'ont pas d'impact significatif sur l'intention de ré-achat en ligne. L'engagement affectif en ligne ("Affective Commitment"), l'attitude loyale en ligne ("Attitudinal Loyalty"), le comportement loyal en ligne ("Behavioral Loyalty"), l'engagement calculé en ligne ("Calculative Commitment") ont un impact positif sur l'intention de ré-achat en ligne. De plus, l'attitude loyale en ligne a un effet de médiation partielle entre l'engagement affectif en ligne et l'intention de ré-achat en ligne. Le comportement loyal en ligne a un effet de mediation partielle entre l'attitude loyale en ligne et l'intention de ré-achat en ligne.Nous avons réalisé deux analyses complémentaires : 1) Sur un échantillon de premiers acheteurs, nous trouvons que la perception post-achat du prix en ligne a un impact positif sur l'intention de ré-achat en ligne. 2) Nous avons divisé l'échantillon de l'étude principale entre des acheteurs répétitifs Suisse-Romands et Suisse-Allemands. Les résultats démontrent que les Suisse-Romands montrent plus d'émotions durant l'achat en ligne que les Suisse-Allemands. Nos résultats contribuent à la recherche académique mais aussi aux praticiens de l'industrie e-commerce.AbstractThe use of the Internet as a shopping and purchasing medium has seen exceptional growth. However, 99% of new online businesses fail. Most online buyers do not comeback for a repurchase, and 60% abandon their shopping cart before checkout. Indeed, after the first purchase, online consumer retention becomes critical to the success of the e-commerce vendor. Retaining existing customers can save costs, increase profits, and is a means of gaining competitive advantage.Past research identified loyalty as the most important factor in achieving customer retention, and commitment as one of the most important factors in relationship marketing, providing a good description of what type of thinking leads to loyalty. Yet, we could not find an e-commerce study investing the impact of both online loyalty and online commitment on online repurchase. One of the advantages of online shopping is the ability of browsing for the best price with one click. Yet, we could not find an e- commerce empirical research investigating the impact of post-purchase price perception on online repurchase.The objective of this research is to develop a theoretical model aimed at understanding online repurchase, or purchase continuance from the same online store.Our model was tested in a real e-commerce context with an overall sample of 1, 866 real online buyers from the same online store.The study focuses on repurchase. Therefore, randomly selected respondents had purchased from the online store at least once prior to the survey. Five months later, we tracked respondents to see if they actually came back for a repurchase.Our findings show that online Intention to repurchase has a non-significant impact on online Repurchase. Online post-purchase Price perception and online Normative Commitment have a non-significant impact on online Intention to repurchase, whereas online Affective Commitment, online Attitudinal Loyalty, online Behavioral Loyalty, and online Calculative Commitment have a positive impact on online Intention to repurchase. Furthermore, online Attitudinal Loyalty partially mediates between online Affective Commitment and online Intention to repurchase, and online Behavioral Loyalty partially mediates between online Attitudinal Loyalty and online Intention to repurchase.We conducted two follow up analyses: 1) On a sample of first time buyers, we find that online post-purchase Price perception has a positive impact on Intention. 2) We divided the main study's sample into Swiss-French and Swiss-German repeated buyers. Results show that Swiss-French show more emotions when shopping online than Swiss- Germans. Our findings contribute to academic research but also to practice.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce guide présente la méthode Data Envelopment Analysis (DEA), une méthode d'évaluation de la performance . Il est destiné aux responsables d'organisations publiques qui ne sont pas familiers avec les notions d'optimisation mathématique, autrement dit de recherche opérationnelle. L'utilisation des mathématiques est par conséquent réduite au minimum. Ce guide est fortement orienté vers la pratique. Il permet aux décideurs de réaliser leurs propres analyses d'efficience et d'interpréter facilement les résultats obtenus. La méthode DEA est un outil d'analyse et d'aide à la décision dans les domaines suivants : - en calculant un score d'efficience, elle indique si une organisation dispose d'une marge d'amélioration ; - en fixant des valeurs-cibles, elle indique de combien les inputs doivent être réduits et les outputs augmentés pour qu'une organisation devienne efficiente ; - en identifiant le type de rendements d'échelle, elle indique si une organisation doit augmenter ou au contraire réduire sa taille pour minimiser son coût moyen de production ; - en identifiant les pairs de référence, elle désigne quelles organisations disposent des best practice à analyser.