462 resultados para Anarchistes classiques
Resumo:
(Résumé de l'ouvrage) Durant toute l'Europe, et au-delà, on a assisté ces dernières années à un grand débat sur les sectes, leur nature, leur nombre, leur influence, leur rôle. Des événements tragiques comme les suicides collectifs ont confirmé dans leurs convictions ceux qui pensent que les sectes sont un fléau pour la société qui les tolère et pour les individus qui s'y engagent. D'autres, au contraire, mettent en garde contre la nouvelle « chasse aux sorcières » qu'on risque de déclencher et en appellent au respect du droit à la liberté religieuse. Ne faut-il pas compléter les analyses classiques de Max Weber et d'Ernst Troeltsch, qui distinguent entre le type « Église » et le type « Secte » ? Plusieurs études sur des groupes controversés (le tristement célèbre Ordre du Temple Solaire, les Témoins de Jéhovah, la Soka Gakkaï, les Loubavitch... ou les mouvances accusées de dérives sectaires) illustrent les évolutions contrastées du paysage religieux aujourd'hui. On assiste d'ailleurs à une mondialisation de ces phénomènes. Les auteurs reviennent longuement sur le débat de société autour des sectes, sur leur nocivité réelle ou supposée, sur leur stigmatisation légitime ou irraisonnée dans les médias et l'opinion publique. Les sectes interrogent la laïcité de l'État et le droit : entrent-elles dans le droit commun des religions ou faut-il créer une législation « anti-sectes » spécifiques ?
Resumo:
Résumé: L'évaluation de l'exposition aux nuisances professionnelles représente une étape importante dans l'analyse de poste de travail. Les mesures directes sont rarement utilisées sur les lieux même du travail et l'exposition est souvent estimée sur base de jugements d'experts. Il y a donc un besoin important de développer des outils simples et transparents, qui puissent aider les spécialistes en hygiène industrielle dans leur prise de décision quant aux niveaux d'exposition. L'objectif de cette recherche est de développer et d'améliorer les outils de modélisation destinés à prévoir l'exposition. Dans un premier temps, une enquête a été entreprise en Suisse parmi les hygiénistes du travail afin d'identifier les besoins (types des résultats, de modèles et de paramètres observables potentiels). Il a été constaté que les modèles d'exposition ne sont guère employés dans la pratique en Suisse, l'exposition étant principalement estimée sur la base de l'expérience de l'expert. De plus, l'émissions de polluants ainsi que leur dispersion autour de la source ont été considérés comme des paramètres fondamentaux. Pour tester la flexibilité et la précision des modèles d'exposition classiques, des expériences de modélisations ont été effectuées dans des situations concrètes. En particulier, des modèles prédictifs ont été utilisés pour évaluer l'exposition professionnelle au monoxyde de carbone et la comparer aux niveaux d'exposition répertoriés dans la littérature pour des situations similaires. De même, l'exposition aux sprays imperméabilisants a été appréciée dans le contexte d'une étude épidémiologique sur une cohorte suisse. Dans ce cas, certains expériences ont été entreprises pour caractériser le taux de d'émission des sprays imperméabilisants. Ensuite un modèle classique à deux-zone a été employé pour évaluer la dispersion d'aérosol dans le champ proche et lointain pendant l'activité de sprayage. D'autres expériences ont également été effectuées pour acquérir une meilleure compréhension des processus d'émission et de dispersion d'un traceur, en se concentrant sur la caractérisation de l'exposition du champ proche. Un design expérimental a été développé pour effectuer des mesures simultanées dans plusieurs points d'une cabine d'exposition, par des instruments à lecture directe. Il a été constaté que d'un point de vue statistique, la théorie basée sur les compartiments est sensée, bien que l'attribution à un compartiment donné ne pourrait pas se faire sur la base des simples considérations géométriques. Dans une étape suivante, des données expérimentales ont été collectées sur la base des observations faites dans environ 100 lieux de travail différents: des informations sur les déterminants observés ont été associées aux mesures d'exposition des informations sur les déterminants observés ont été associé. Ces différentes données ont été employées pour améliorer le modèle d'exposition à deux zones. Un outil a donc été développé pour inclure des déterminants spécifiques dans le choix du compartiment, renforçant ainsi la fiabilité des prévisions. Toutes ces investigations ont servi à améliorer notre compréhension des outils des modélisations ainsi que leurs limitations. L'intégration de déterminants mieux adaptés aux besoins des experts devrait les inciter à employer cet outil dans leur pratique. D'ailleurs, en augmentant la qualité des outils des modélisations, cette recherche permettra non seulement d'encourager leur utilisation systématique, mais elle pourra également améliorer l'évaluation de l'exposition basée sur les jugements d'experts et, par conséquent, la protection de la santé des travailleurs. Abstract Occupational exposure assessment is an important stage in the management of chemical exposures. Few direct measurements are carried out in workplaces, and exposures are often estimated based on expert judgements. There is therefore a major requirement for simple transparent tools to help occupational health specialists to define exposure levels. The aim of the present research is to develop and improve modelling tools in order to predict exposure levels. In a first step a survey was made among professionals to define their expectations about modelling tools (what types of results, models and potential observable parameters). It was found that models are rarely used in Switzerland and that exposures are mainly estimated from past experiences of the expert. Moreover chemical emissions and their dispersion near the source have also been considered as key parameters. Experimental and modelling studies were also performed in some specific cases in order to test the flexibility and drawbacks of existing tools. In particular, models were applied to assess professional exposure to CO for different situations and compared with the exposure levels found in the literature for similar situations. Further, exposure to waterproofing sprays was studied as part of an epidemiological study on a Swiss cohort. In this case, some laboratory investigation have been undertaken to characterize the waterproofing overspray emission rate. A classical two-zone model was used to assess the aerosol dispersion in the near and far field during spraying. Experiments were also carried out to better understand the processes of emission and dispersion for tracer compounds, focusing on the characterization of near field exposure. An experimental set-up has been developed to perform simultaneous measurements through direct reading instruments in several points. It was mainly found that from a statistical point of view, the compartmental theory makes sense but the attribution to a given compartment could ñó~be done by simple geometric consideration. In a further step the experimental data were completed by observations made in about 100 different workplaces, including exposure measurements and observation of predefined determinants. The various data obtained have been used to improve an existing twocompartment exposure model. A tool was developed to include specific determinants in the choice of the compartment, thus largely improving the reliability of the predictions. All these investigations helped improving our understanding of modelling tools and identify their limitations. The integration of more accessible determinants, which are in accordance with experts needs, may indeed enhance model application for field practice. Moreover, while increasing the quality of modelling tool, this research will not only encourage their systematic use, but might also improve the conditions in which the expert judgments take place, and therefore the workers `health protection.
Resumo:
Rapport de synthèse: Enjeux et contexte de recherche : la coarctation de l'aorte, rétrécissement de l'aorte thoracique descendante, est une des malformations cardiaques congénitales les plus fréquentes. Son diagnostic reste cependant difficile surtout lorsqu'elle est associée à la présence d'un canal artériel ou à une malformation cardiaque plus complexe. Dans ces contextes, les signes échographiques classiques qui posent habituellement le diagnostic (visualisation d'un rétrécissement juxtaductal et accélération au Doppler au niveau de l'isthme aortique) peuvent faire défaut ou être difficile à imager. La validation d'index basé sur des mesures anatomiques faciles à acquérir par échographie cardiaque, indépendantes de l'âge, de la situation hémodynamique et des malformations cardiaques associées représente une aide significative dans le diagnostic de la coarctation de l'aorte. Nous avons donc voulu valider par une étude rétrospective la fiabilité de deux index dans cette indication : l'index des artères carotido-sous-clavière (index CSA; rapport du diamètre de l'arc aortique transverse distal sur la distance entre les artères carotide et sous-clavière gauches) et l'index de l'aorte isthmique-descendante (index I/D; rapport des diamètres de l'aorte isthmique sur celui de l'aorte descendante). Notre article : nous avons rétrospectivement calculé la valeur des deux index (CSA et I/D) chez un groupe de 68 enfants avec coarctation et un groupe 24 cas contrôles apparenté pour l'âge et le sexe. Les enfants avec coarctation ont un index CSA et I/D significativement plus bas que le groupe contrôle (Index CSA : 0.84 ± 0.39 vs. 2.65 ± 0.82, p<0.0001 - Index I/D : 0.58 ± 0.18 vs. 0.98 ± 0.19, p<0.0001). Pour les deux index, ni la présence d'une autre malformation cardiaque, ni l'âge n'ont un impact sur la différence significative entre les deux groupes. Conclusions: notre recherche à permis de valider qu'un index CSA de moins de 1,5 est fortement suggestif d'une coarctation, indépendamment de l'âge du patient et de la présence d'une autre malformation cardiaque. L'index I/D (valeur limite 0,64) est moins spécifique que l'index CSA. L'association des deux index augmente la sensibilité et permet rétrospectivement le diagnostic de tous les cas de coarctation seulement sur la base d'une échographie cardiaque standard faite au lit du patient. Perspectives : cette étude rétrospective mérite d'être vérifiée par une étude prospective afin de confirmer la contribution de ces index à la prise en charge des patients suspects d'une coarctation de l'aorte. Cependant, la situation dans laquelle ces index pourraient avoir le plus grand impact reste encore à explorer. En effet, si le diagnostic postnatal de la coarctation est parfois difficile, son diagnostic prénatal l'est nettement plus. La présence obligatoire du canal artériel et l'existence d'une hypoplasie isthmique physiologique chez le foetus obligent le cardiologue foetale à observer des signes indirects, peu sensibles, d'une possible coarctation (prépondérance des cavités droites). La validation de l'index CSA et/ou de l'index I/D chez le foetus constituerait donc une avancée majeure dans le diagnostic prénatal de la coarctation de l'aorte.
Resumo:
En este trabajo se hace referencia a la posible consideración de las sociedades cooperativas como sociedades mercantiles, cumpliéndose determinadas circunstancias, y ello sin pérdida de sus características específicas en cuanto a la toma de decisiones, el reparto de beneficios y la búsqueda de la satisfacción de fines de interés general. Asimismo, se analizan las consecuencias de aumentar el porcentaje de operaciones realizadas con terceros no socios, respecto del total de operaciones realizadas por la sociedad cooperativa, y su incidencia en la cuantía de los fondos de la cooperativa y en la retribución del socio cooperativista. Se realiza en este punto una comparación con las sociedades capitalistas convencionales (S.A., S.L.). Finalmente, se propone una reforma legislativa al objeto de permitir aumentar el porcentaje de realización de operaciones cooperativizadas con terceros no socios, y ello sin pérdida de su tratamiento fiscal favorable. PALABRAS CLAVE: Cooperativas, mercantilidad, mutualismo, operaciones con terceros, régimen fiscal, reformas legislativas. CLAVES ECONLIT: P130, Q130, L310
Resumo:
Le travail policier et l'enquête judiciaire nécessitent de prendre de nombreuses décisions : choisir quelle trace analyser, mettre sous surveillance ou en détention un suspect, sont autant de décisions qui sont prises quotidiennement par les acteurs du système judiciaire. Ces décisions font l'objet de pesées d'intérêts qui se fondent sur l'analyse de l'information accessible. C'est le rôle de l'analyse criminelle de mettre en perspective l'information colligée pour la rendre intelligible aux décideurs compétents. L'usage de représentations graphiques est notamment recommandé pour soutenir l'analyse et la communication de ces informations.Des techniques de visualisation relationnelle sont notamment exploitées dans les enquêtes judiciaires afin de faciliter le traitement d'affaires d'envergure. Les éléments pertinents de l'enquête sont représentés sous la forme de schémas décrivant les relations entre les événements et les entités d'intérêts (tel que des personnes, des objets et des traces). Les exploitations classiques de ces techniques qui s'apparentent à des graphes, sont par exemple : la représentation de réseaux criminels, de trafics de marchandises, de chronologies d'événements, ainsi que la visualisation de relations téléphoniques et financières. Dans ce contexte, la visualisation soutient un nombre importants d'objectifs, tels qu'analyser les traces et les informations collectées, évaluer a posteriori une investigation, aider à qualifier les infractions, faciliter l'appréhension d'un dossier, voire soutenir une argumentation lors du procès.La pratique intègre des outils logiciels simples qui produisent des graphiques élégants et souvent percutants. Leur utilisation semble néanmoins soulever des difficultés. Cette recherche tend à montrer qu'il existe des disparités étonnantes lors de l'exploitation de ces techniques. Des biais de raisonnement et de perception peuvent être induits, allant jusqu'à provoquer des décisions aux conséquences parfois désastreuses. Ce constat révèle la nécessité de consolider les méthodes pratiquées.Pour mettre en évidence ces difficultés, des évaluations ont été effectuées avec des praticiens et des étudiants. Elles ont permis d'établir une image empirique de l'étendue des variations de conception et d'interprétation des représentations, ainsi que de leurs impacts sur la prise de décision. La nature et la diversité des concepts à représenter, l'absence d'un consensus émergeant sur la manière de représenter les données, la diversité des solutions visuelles envisageables, les contraintes imposées par les outils exploités et l'absence d'une formalisation claire du langage, sont autant de causes supposées des difficultés.Au cours des vingt dernières années, plusieurs axes de développement ont été proposés pour traiter les difficultés observées, tels que l'amélioration des automatismes facilitant la conception d'une représentation, l'exploitation des techniques de réseaux sociaux, l'automatisation de l'identification et de l'extraction des entités dans du texte non-structuré et la définition de langages formels. Cette recherche propose une approche parallèle fondée sur une exploitation adaptée de structures de graphe et de propriétés visuelles pour optimiser la représentation en fonction des objectifs définis et de la nature des informations à représenter.Des solutions ont été recherchées selon plusieurs axes. Des recommandations générales, issues de diverses communautés de recherche liées à la visualisation, ont été recherchées afin de proposer une démarche générale de conception des schémas relationnels. Par ailleurs, le développement d'un catalogue de bonnes pratiques formalisées sous la forme de patterns de visualisation a été amorcé. Chaque pattern décrit une solution particulière pour un problème d'analyse récurrent, tel que l'analyse d'une série de cambriolages. Finalement, l'impact sur les outils de la méthodologie proposée est discuté en regard des limites qu'ils imposent. Un prototype de visualisation multidimensionnel a été élaboré.Cette recherche met en évidence les difficultés rencontrées lors de l'exploitation de représentations graphiques pour soutenir le processus de l'enquête judiciaire et propose des éléments de méthode et des innovations techniques utiles tant pour l'enseignement de la discipline que pour sa pratique.
Resumo:
RÉSUMÉ : Chez l'homme, le manque de sélectivité des agents thérapeutiques représente souvent une limitation pour le traitement des maladies. Le ciblage de ces agents pour un tissu défini pourrait augmenter leur sélectivité et ainsi diminuer les effets secondaires en comparaison d'agents qui s'accumuleraient dans tout le corps. Cela pourrait aussi améliorer l'efficacité des traitements en permettant d'avoir une concentration localisée plus importante. Le ciblage d'agents thérapeutiques est un champ de recherche très actif. Les stratégies sont généralement basées sur les différences entre cellules normales et malades. Ces différences peuvent porter soit sur l'expression des molécules à leurs surfaces comme des récepteurs ou des transporteurs, soit sur les activités enzymatiques exprimées. Le traitement thérapeutique choisi ici est la thérapie photodynamique et est déjà utilisé pour le traitement de certains cancers. Cette thérapie repose sur l'utilisation de molécules qui réagissent à la lumière, les photosensibilisants. Elles absorbent l'énergie lumineuse et réagissent avec l'oxygène pour former des radicaux toxiques pour les cellules. Les photosensibilisants utilisés ici sont de deux natures : (i) soit ils sont tétrapyroliques (comme les porphyrines et chlorines), c'est à dire qu'ils sont directement activables par la lumière ; (ii) soit ce sont des prodrogues de photosensibilisants comme l'acide 5aminolévulinique (ALA) qui est transformé dans la cellule en protoporphyrine IX photosensibilisante. Dans le but d'augmenter la sélectivité des photosensibilisants, nous avons utilisé deux stratégies différentes : (i) le photosensibilisant est modifié par le greffage d'un agent de ciblage ; (ii) le photosensibilisant est incorporé dans des structures moléculaires de quelques centaines de nanomètres. Les sucres et l'acide folique sont des agents de ciblage largement établis et ont été utilisés ici car leurs récepteurs sont surexprimés à la surface de nombreuses cellules malades. Ainsi, des dérivés sucres ou acide folique de l'ALA ont été synthétisés et évalués in vitro sur de nombreuses lignées cellulaires cancéreuses. La stratégie utilisant l'acide folique est apparue incompatible avec l'utilisation de l'ALA puisque aucune photosensibilité n'a été induite par le composé. La stratégie utilisant les sucres a, par ailleurs, provoquée de bonnes photosensibilités mais pas d'augmentation de sélectivité. En parallèle, la combinaison entre les propriétés anticancéreuses des complexes métalliques au ruthénium avec les propriétés photosensibilisantes des porphyrines, a été évaluée. En effet, les thérapies combinées ont émergé il y a une dizaine d'années et représentent aujourd'hui de bonnes alternatives aux monothérapies classiques. Des ruthenium(I1)-arènes complexés avec la tetrapyridylporphyrine ont ainsi présenté de bonnes cytotoxicités et de bonnes phototoxicités pour des cellules de mélanomes. Des porphyrines ont aussi été compléxées avec des noyaux de diruthénium et ce type de dérivé a présenté de bonnes phototoxicités et une bonne sélectivité pour les cellules cancéreuses de l'appareil reproducteur féminin. L'incorporation de photosensibilisants tétrapyroliques a finalement été effectuée en utilisant des nanoparticules (NP) biocompatibles composées de chitosan et de hyaluronate. L'effet de ces NP a été évalué pour le traitement de la polyarthrite rhumatoïde (PR). Les NP ont d'abord été testées in vitro avec des macrophages de souris et les résultats ont mis en évidence de bonnes sélectivités et photosensibilités pour ces cellules. In vivo chez un modèle marin de la PR, l'utilisation de ces NP a révélé un plus grand temps de résidence des NP dans le genou de la souris en comparaison du temps obtenu avec le photosensibilisant seul. Le traitement par PDT a aussi démontré une bonne efficacité par ailleurs égale à celle obtenue avec les corticoïdes utilisés en clinique. Pour finir, les NP ont aussi démontré une bonne efficacité sur les myelomonocytes phagocytaires humains et sur les cellules contenues dans le liquide synovial de patients présentant une PR. Tous ces résultats suggèrent que les deux stratégies de ciblage peuvent être efficaces pour les agents thérapeutiques. Afm d'obtenir de bons résultats, il est toutefois nécessaire de réaliser une analyse minutieuse de la cible et du mode d'action de l'agent thérapeutique. Concernant les perspectives, la combinaison des deux stratégies c'est à dire incorporer des agents thérapeutiques dans des nanostructures porteuses d'agents de ciblage, représente probablement une solution très prometteuse. SUMMARY : In humans, the lack of selectivity of drugs and their high effective concentrations often represent limitations for the treatment of diseases. Targeting the therapeutical agents to a defined tissue could enhance their selectivity and then diminish their side effects when compared to drugs that accumulate in the entire body and could also improve treatment efûciency by allowing a localized high concentration of the agents. Targeting therapeutics to defined cells in human pathologies is a main challenge and a very active field of research. Strategies are generally based on the different behaviors and patterns of expression of diseased cells compared to normal cells such as receptors, proteases or trans-membrane carriers. The therapeutic treatment chosen here is the photodynamic therapy and is already used in the treatment of many cancers. This therapy relies on the administration of a photosensitizer (PS) which will under light, react with oxygen and induce formation of reactive oxygen species which are toxic for cells. The PSs used here are either tetrapyrolic (i. e. porphyries and chlorins) or prodrugs of PS (5-aminolevulinic acid precursor of the endogenous protoporphyrin Imo. In order to improve PS internalization and selectivity, we have used two different strategies: the modification of the PSs with diseased cell-targeting agents as well as their encapsulation into nanostructures. Sugars and folic acid are well established as targeting entities for diseased cells and were used here since their transporters are overexpressed on the surface of many cancer cells. Therefore sugar- and folic acid-derivatives of 5-aminolevulinic acid (ALA) were synthesized and evaluated in vitro in several cancer cell lines. The folic acid strategy appeared to be incompatible with ALA since no photosensitivity was induced while the strategy with sugars induced good photosensitivites but no increase of selectivity. Alternatively, the feasibility of combining the antineoplastic properties of ruthenium complexes with the porphyrin's photosensitizing properties, was evaluated since combined therapies have emerged as good alternatives to classical treatments. Tetrapyridylporphyrins complexed to ruthenium (I17 arenes presented good cytotoxicities and good phototoxicities toward melanoma cells. Porphyries were also complexed to diruthenium cores and this type of compound presented good phototoxicities and good selectivity for female reproductive cancer cells. The encapsulation of tetrapyrolic PSs was finally investigated using biocompatible nanogels composed of chitosan and hyaluronate. The behavior of these nanoparticles was evaluated for the treatment of rheumatoid arthritis (RA). They were first tested in vitro in mouse macrophages and results revealed good selectivities and phototoxicities toward these cells. In vivo in mice model of RA, the use of such nanoparticles instead of free PS showed longer time of residence in mice knees. Photodynamic protocols also demonstrated good efficiency of the treatment comparable to the corticoid injection used in the clinic. Finally our system was also efficient in human cells using phagocytic myelomonocytes or using cells of synovial fluids taken from patients with RA. Altogether, these results revealed that both strategies of modification or encapsulation of drugs can be successful in the targeting of diseased cells. However, a careful analysis of the target and of the mode of action of the drug, are needed in order to obtain good results. Looking ahead to the future, the combination of the two strategies (i.e. drugs loaded into nanostructures bearing the targeting agents) would represent probably the best solution.
Resumo:
Résumé Ce travail s'inscrit dans un programme de recherche centré sur la pharmacovigilance en psychiatrie. Buts de l'étude Les nouveaux antipsychotiques atypiques sont prescrits avec beaucoup de succès, parce qu'ils présentent une sécurité dans leur emploi bien supérieure à celle des antipsychotiques classiques. Cette situation a conduit à une large prescription «off-label» (hors indication admise). Le but de ce travail a été d'étudier la pratique en matière de prescription des psychiatres hospitaliers en ce qui concerne les antipsychotiques en comparant des patients traités pour des psychoses ou d'autres indications officielles aux patients recevant un traitement antipsychotique «off-label». Méthode Dans le cadre d'un programme de pharmacovigilance - pharmacoépidemiologie, tous les médicaments prescrits à 5 jours de référence (entre 1999 et 2001) à l'hôpital psychiatrique universitaire de Lausanne (98 lits) ont été enregistrés, avec des données sur l'âge, le sexe et le diagnostic des patients. Les prescriptions de 202 patients ont été évaluées. Les patients ont été classés dans 3 groupes diagnostiques : (1) patient présentant des troubles psychotiques, (2) patient présentant des épisodes maniaques et des épisodes dépressifs avec des symptômes psychotiques, et (3) patient présentant d'autres troubles. Les groupes (1) et (2) forment une classe de patients recevant un antipsychotique pour une indication officielle, et les prescriptions dans le groupe (3) ont été considérées comme «off-label». Résultats principaux Moins de patients psychotiques ont reçu un antidépresseur (p<0.05) ou des hypnotiques non-benzodiazepine (p<0.001) comparés aux patients des deux autres groupes. Les patients présentant des troubles affectifs recevaient seulement exceptionnellement une combinaison d'un antipsychotique atypique et conventionnel, tandis qu'un nombre inférieur de patients avec des indications « off-label » ont reçu moins .souvent des antipsychotiques atypiques que ceux des deux groupes de comparaison (p<0.05). L'analyse statistique (stepwise logistic regression) a révélé que les patients présentant des troubles psychotiques avaient un risque plus élevé de recevoir un médicament antipsychotique d'une dose moyenne ou élevée, (p<0.001) en comparaison aux deux autres groupes. Conclusion Les nouveaux médicaments antipsychotiques semblent être prescrits avec moins d'hésitation principalement pour des indications admises. Les médecins prescrivent de nouveaux médicaments « off-label » seulement après avoir acquis une certaine expérience dans le domaine des indications approuvées, et ils étaient plus prudents en ce qui concerne la dose en traitant sur la base «off-label». Abstract Objective The new brands of atypical antipsychotics are very successfully prescribed because of their enhanced safety profiles and their larger pharmacological profile in comparison to the conventional antipsychotic. This has led to broad off-label utilisation. The aim of the present survey was to study the prescription practice of hospital psychiatrists with regard to antipsychotic drugs, comparing patients treated for psychoses or other registered indications to patients receiving an off-label antipsychotic treatment. Method As part of a pharmacovigilance/pharmacoepidemiology program, all drugs given on 5 reference days (1999 - 2001) in the 98-bed psychiatric hospital of the University of Lausanne, Switzerland, were recorded along with age, sex and diagnosis. The prescriptions of 202 patients were assessed. Patients were classified in 3 diagnostic groups: (1) patient with psychotic disorders, (2) patients with manic episodes and depressive episodes with psychotic symptoms, and (3) patients with other disorders. Group (1) and (2) formed the class of patients receiving an antipsychotic for a registered indication, and the prescriptions in group (3) were considered as off-label. Main results A lesser number of psychotic patients received antidepressant (p<0.05) and nonbenzodiazepine hypnotics (p<0.001) compared to the patients of the other two groups. The patients with affective disorders received only exceptionally a combination of an atypical and a conventional antipsychotic, whereas a lesser number of patients with off-label indications received less often atypical antipsychotics than those of the two comparison groups (p<0.05). Stepwise logistic regression revealed that patients with psychotic disorder were at higher risk of receiving an antipsychotic medication in medium or high dose (p<0.001), in comparison to the two other groups. Conclusions The new antipsychotic drugs seem to be prescribed with less hesitation mainly for approved indications. Physicians prescribe new drugs on off-label application only after having gained some experience in the field of the approved indications, and were more cautious with regard to dose when treating on an off-label basis.
Resumo:
L'oeuvre de Charles d'Orléans ne garde guère de traces des vingt-cinq ans passés dans les prisons anglaises. Ses poésies sont une mise en scène du moi, destinée à des amis qui goûtent son jeu avec les métaphores, les clins d'oeil intertextuels. Son moi se construit au fil d'un dialogue avec ses prédécesseurs, ses contemporains, puis est façonné par l'image qu'on s'en fait au fil des siècles. Les différentes facettes de cette subjectivité en mouvement font l'objet de la présente étude. La première partie examine ce que Charles d'Orléans doit à la tradition ; la seconde offre une lecture interne de ses poésies ; la troisième les situe dans le paysage littéraire de l'époque ; la quatrième étudie leur réception. Les articles réunis ici ont été retravaillés en profondeur, la réflexion revue et élargie : de nombreuses pages sont inédites, certains chapitres réécrits de fond en comble.
Resumo:
Le mycophénolate mofétil est un immunosuppresseur, utilisé en transplantation d'organes solides depuis 1993. Il agit par inhibition de la synthèse de novo des bases puriques, voie essentielle permettant la prolifération des lymphocytes B et T. Des mécanismes immunologiques impliquant les lymphocytes interviennent dans un bon nombre de glomérulopathies primitives ou associées à des maladies auto-immunes systémiques. il a paru ainsi logique de prescrire ce médicament dans ces maladies où les traitements immunosuppresseurs classiques se caractérisent par une efficacité imprévisible et une toxicité souvent importante. Les résultats thérapeutiques les plus convaincants ont été obtenus dans les néphrites lupiques prolifératives et les vasculites pauci-immunes.
Resumo:
Cadre de l'étude La part des dépenses de santé dans les budgets des pays occidentaux est importante et tend à croître depuis plusieurs décennies. Une des conséquences, notamment pour la Suisse, est une augmentation régulière des primes d'assurance maladie, dont l'impopularité incite les responsables politiques à trouver des stratégies de frein à la croissance des coûts de la santé. Les médicaments, qui contribuent notablement à l'augmentation de ces coûts, constituent l'une des cibles classiques d'interventions visant à une réduction des dépenses de santé. Le niveau de coûts des médicaments représente plus de 20% des dépenses de soins du domaine ambulatoire à la charge de l'assurance obligatoire des soins (AOS), soit une dépense annuelle de plus de 4 milliards de francs. Différentes mesures peuvent être utilisées par le gouvernement pour contenir cette facture à charge de la collectivité : baisse du prix des médicaments, limitation du nombre de produits remboursés par l'assurance de base et incitations à la concurrence sur les prix en autorisant les importations parallèles. Depuis que de plus en plus de brevets pour des médicaments sont arrivés à échéance, un autre angle d'attaque s'est concrétisé avec l'incitation à la prescription de médicaments génériques. Les génériques sont définis comme des produits thérapeutiques chimiquement identiques à des composés déjà utilisés, appelés médicaments originaux. En principe, une économie substantielle devrait pouvoir être réalisée sur les coûts totaux des médicaments si tous les génériques disponibles sur le marché étaient systématiquement prescrits par les professionnels et acceptés par les patients. Les résultats publiés par les caisses maladie et les offices fédéraux sont des estimations globales et les montants publiés par l'industrie pharmaceutique concernent l'ensemble du marché, incluant les médicaments utilisés dans les séjours hospitaliers, sont par ailleurs exprimés en prix de fabrique. De plus, aucune étude n'a tenu compte de la substituabilité des produits d'un point de vue pharmaceutique. L'objectif général de la thèse est d'évaluer aussi précisément que possible l'économie pouvant être encore réalisée dans le secteur ambulatoire en substituant aux médicaments originaux les produits génériques présents sur le marché et de caractériser plusieurs facteurs qui influencent la substitution générique. Pour cette étude, nous avons pu disposer de l'ensemble des factures pharmaceutiques de la caisse maladie CSS, pour tous ses assurés des cantons d'Argovie, du Tessin et de Vaud, soit plus de 169'000 assurés représentant les trois régions linguistiques de la Suisse. Les 1'341'197 prescriptions médicales qui ont été analysées concernent l'année 2003. C'est un moment critique dans l'histoire des génériques en Suisse, approprié pour établir un premier bilan après l'entrée en vigueur de la première mesure relative au droit de substituer octroyé en 2001 aux pharmaciens et, pour identifier idéalement les principaux déterminants de la substitution par les praticiens avant l'introduction de la quote-part différenciée en 2006. La présence d'un même principe actif n'est pas une condition suffisante pour permettre une substitution et pour ce travail des critères tenant compte des caractéristiques pharmaceutiques des produits ont été établis et appliqués pour valider la substituabilité des originaux par les génériques disponibles sur le marché. Ces critères concernent notamment le mode d'administration, le dosage et le nombre de doses dans l'emballage. L'étude a été réalisée selon deux approches, d'abord par une analyse descriptive sur l'ensemble de la population source pour estimer le marché des génériques et ensuite par une analyse statistique (régression logit multivariée) sur 173'212 prescriptions agrégées, qui concernent spécifiquement soit un générique soit un original substituable, pour caractériser les facteurs déterminants de la substitution générique. Résultats Dans l'ensemble de la population source, les génériques et les originaux substituables représentent 17,4% du marché en termes de coûts facturés, avec 3,4% de génériques et 14,0% d'originaux substituables ce qui correspond à un taux de substitution de 19,5%. En termes de dépenses, les substitutions génériques réalisées représentent une économie de 1,3% du total du marché étudié alors qu'il reste un potentiel notable d'économie par la substitution de 4,6%. Les taux de substitution sont très variables selon les cantons : 10,1% au Tessin, 29,0% pour le canton de Vaud et 35,8% pour Argovie. L'analyse univariée des 173'212 prescriptions de génériques ou d'originaux substituables, montre des taux de substitution plus élevés chez les patients jeunes et lorsqu'il y a d'importantes différences de prix entre les originaux et les génériques. Des taux de substitution peu élevés sont observés chez les patients les plus âgés et pour ceux qui ont des traitements médicamenteux complexes. Les patients ayant plus de 10 médicaments différents durant la même année, présentent une probabilité relative de substituer inférieure (-24%) par rapport aux patients ayant 6 à 10 médicaments différents dans l'année. Cependant, l'analyse multivariée montre que l'effet négatif sur le taux de substitution de l'âge combiné à la complexité des traitements n'excède pas 3%. Bien que le niveau de franchises et la participation financière à la quote-part soient liées à une augmentation de la prescription de génériques, leurs effets sont modérés pour les patients avec des franchises supérieures à 300 francs (effet marginal de 1%) et pour les patients qui n'ont pas atteint le plafond de participation (effet marginal de 2%). La différence de taux substitution entre les médecins hospitaliers et les spécialistes est diminuée de façon notable (effet marginal de -13%) et elle est cependant moins marquée avec les médecins généralistes (effet marginal de -3%). Les facteurs associés au marché ont une influence notable sur la substitution générique et des effets positifs sont observés avec l'augmentation de la taille du marché, du nombre de génériques pour un même original substituable et de l'économie relative entre l'original et le générique. Par contre, la diversification des formes galéniques et des tailles d'emballages au niveau de l'offre des médicaments originaux a des effets fortement négatifs sur la substitution générique (-7%). Le canton de domicile a aussi un impact notable sur la substitution et le canton du Tessin présente un taux plus bas (-26%) que le canton d'Argovie. Conclusion et perspectives Ce travail a montré qu'il y a encore un important potentiel d'économies à réaliser par la substitution générique, calculé à plus de 4% des dépenses pharmaceutiques prises en charge par l'AOS en ambulatoires. Une extrapolation à l'ensemble du marché suisse, qui doit être faite avec prudence, fait apparaître un potentiel d'économies de 127 millions pour les médicaments délivrés par les pharmacies en 2003. L'étude a mis en évidence un certain nombre de déterminants qui freinent la substitution générique, notamment la prescription par un médecin hospitalier. Sur ce point la prescription en DCI (dénomination commune internationale) pourrait favoriser la dispensation de génériques moins chers. Un taux de substitution plus faible est observé chez les patients âgés avec des traitements complexes. Ce constat peut être mis en relation avec la crainte d'avoir un traitement moins efficace ou moins bien supporté et les risques de confusion lors du passage d'un original substituable à un générique ou d'un générique à un autre générique. Sur ces éléments, l'indication claire et précise du nom de la substance, aussi bien sur les emballages des originaux substituables que sur ceux des génériques, pourrait rassurer les patients et diminuer les risques d'erreurs dans la prise des médicaments. Certaines précautions à prendre lors de la prescription de génériques sont reconnues, notamment pour les médicaments à faible marge thérapeutique, et des informations sur la bioéquivalence, régulièrement mises à jour et à disposition des professionnels, pourraient augmenter la confiance dans l'utilisation des génériques. Les industries pharmaceutiques préservent par différentes tactiques leurs parts de marché et notamment avec succès en introduisant de nouvelles formes galéniques juste avant l'expiration des brevets. Des directives complémentaires sur la fixation des prix pour le remboursement, en particulier l'introduction d'un prix de référence quelle que soit la forme galénique, pourraient diminuer l'effet de barrage des médicaments originaux. Les incitations économiques, telles que la franchise et les participations sont efficaces si l'on considère l'impact sur les taux de substitution. Leur effet global reste toutefois modeste et il serait nécessaire de mesurer concrètement l'impact de l'introduction en 2006 de la quote-part différenciée. Les différences de prix entre les originaux et les génériques exigées à 50% pour les gros marchés, c'est-à-dire de plus de 16 millions, devraient aussi avoir un impact qu'il serait opportun de mesurer.
Resumo:
Pendant ma thèse de doctorat, j'ai utilisé des espèces modèles, comme la souris et le poisson-zèbre, pour étudier les facteurs qui affectent l'évolution des gènes et leur expression. Plus précisément, j'ai montré que l'anatomie et le développement sont des facteurs clés à prendre en compte, car ils influencent la vitesse d'évolution de la séquence des gènes, l'impact sur eux de mutations (i.e. la délétion du gène est-elle létale ?), et leur tendance à se dupliquer. Où et quand il est exprimé impose à un gène certaines contraintes ou au contraire lui donne des opportunités d'évoluer. J'ai pu comparer ces tendances aux modèles classiques d'évolution de la morphologie, que l'on pensait auparavant refléter directement les contraintes s'appliquant sur le génome. Nous avons montré que les contraintes entre ces deux niveaux d'organisation ne peuvent pas être transférées simplement : il n'y a pas de lien direct entre la conservation du génotype et celle de phénotypes comme la morphologie. Ce travail a été possible grâce au développement d'outils bioinformatiques. Notamment, j'ai travaillé sur le développement de la base de données Bgee, qui a pour but de comparer l'expression des gènes entre différentes espèces de manière automatique et à large échelle. Cela implique une formalisation de l'anatomie, du développement et de concepts liés à l'homologie grâce à l'utilisation d'ontologies. Une intégration cohérente de données d'expression hétérogènes (puces à ADN, marqueurs de séquence exprimée, hybridations in situ) a aussi été nécessaire. Cette base de données est mise à jour régulièrement et disponible librement. Elle devrait contribuer à étendre les possibilités de comparaison de l'expression des gènes entre espèces pour des études d'évo-devo (évolution du développement) et de génomique. During my PhD, I used model species of vertebrates, such as mouse and zebrafish, to study factors affecting the evolution of genes and their expression. More precisely I have shown that anatomy and development are key factors to take into account, influencing the rate of gene sequence evolution, the impact of mutations (i.e. is the deletion of a gene lethal?), and the propensity of a gene to duplicate. Where and when genes are expressed imposes constraints, or on the contrary leaves them some opportunity to evolve. We analyzed these patterns in relation to classical models of morphological evolution in vertebrates, which were previously thought to directly reflect constraints on the genomes. We showed that the patterns of evolution at these two levels of organization do not translate smoothly: there is no direct link between the conservation of genotype and phenotypes such as morphology. This work was made possible by the development of bioinformatics tools. Notably, I worked on the development of the database Bgee, which aims at comparing gene expression between different species in an automated and large-scale way. This involves the formalization of anatomy, development, and concepts related to homology, through the use of ontologies. A coherent integration of heterogeneous expression data (microarray, expressed sequence tags, in situ hybridizations) is also required. This database is regularly updated and freely available. It should contribute to extend the possibilities for comparison of gene expression between species in evo-devo and genomics studies.
Resumo:
Durant les dernières décennies, la recherche portant sur la motivation des fonctionnaires a été dominée par deux courants théoriques : l'approche dite des choix rationnels, et celle portant sur la motivation au service public. Dans l'environnement post-bureaucratique actuel, cette vision simplifiée, qui reflète aussi dans une certaine mesure la dichotomie « public-privé », ne reflète plus de manière adéquate la complexité et l'hétérogénéité des motivations des agents publics. Basée sur des données empiriques qualitatives et quantitatives, une typologie originale des motivations dans l'univers post-bureaucratique est développée et testée dans plusieurs organisations publiques suisses. Elle révèle des facteurs de motivations qui combinent de manière originale des éléments classiques de la bureaucratie avec d'autres sources de motivation caractéristiques de formes modernes d'administration publique.