373 resultados para Critères de succès


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: L'unité d'Assistance Pharmaceutique de la Pharmacie des HUG fonctionne comme centre d'information sur les médicaments et gère des informations mises à disposition sur le web. Celles-ci sont destinées prioritairement au personnel soignant des HUG et accessibles sur le site intranet/Internet (http://www.hcuge.ch/Pharmacie), mis en service en 1998. L'objectif de ce travail était d'évaluer la qualité de l'information du site intranet/Internet et d'y apporter les améliorations nécessaires. Méthode: Le site intranet/Internet de la pharmacie des HUG a été évalué en automne 2004 à l'aide de 2 outils : NetScoring : grille d'évaluation de la qualité de l'information de santé sur Internet (http://www.chu-rouen.fr/netscoring/). Elle comporte 49 critères répartis en 8 catégories. Chaque critère est noté sur une échelle de 5 occurrences puis pondéré selon son importance (multiplication par 3 si le critère est essentiel, par 2 s'il est important ou par 1 s'il est mineur). Analyse AMDEC : méthode permettant de séquencer un processus et d'en Analyser les Modes de Défaillance, leur Effet et leur Criticité (Qual Saf Health Care 2005 :14(2);93-98). Un score est attribué à chaque mode de défaillance identifié en terme de fréquence, de sévérité et de détectabilité. La multiplication des 3 scores fournit un résultat global de criticité (indice de criticité IC, max. 810), permettant de hiérarchiser les risques. Résultats: Etat des lieux NetScoring : La qualité globale du site intranet/Internet était bonne (202 pts/312). Les points forts concernaient la pertinence et l'utilité du site, la qualité du contenu, du moteur de recherche et du design, la rapidité de chargement du site, la sélection des liens externes proposés et le respect du secret médical. Les faiblesses résidaient dans l'absence de politique de mise à jour régulière, d'annotation systématique de l'état d'actualisation des documents, d'un comité éditorial et scientifique, de mots-clés en anglais et d'une liste permettant l'identification des auteurs. Analyse AMDEC : Quatre catégories (création du document, conversion, structure du site et publication du document) et 19 modes de défaillances ont été caractérisés. Trois modes de défaillance étaient associés à un IC important: erreurs lors de la création d'un document (IC 256), information inadéquate car pratique non validée ou recommandation non généralisable (IC 147) et absence de relecture après la conversion du document en format publiable (ex : PDF) (IC 144). Mesures correctives: Une procédure standard (SOP) a été élaborée pour la gestion du site intranet/Internet. Le format standard des informations (initiales de l'auteur, dates de création et de mise à jour, logo de la pharmacie), la validation et la politique de mise à jour des documents ainsi que la procédure d'archivage y sont clairement définis. Une fiche de suivi accompagnant chaque document a été créée pour la traçabilité de toutes les modifications effectuées et la fréquence de révision à respecter. Discussion et conclusion Cette étude a permis de déterminer et de quantifier les points critiques à améliorer sur le site intranet/Internet de la Pharmacie des HUG. Les mesures correctives entreprises doivent permettre d'améliorer les principales faiblesses et défaillances mises en évidence. La mise en place d'un comité éditorial et scientifique devra être évaluée à l'avenir. Le NetScoring et l'analyse AMDEC sont des outils utiles pour l'évaluation et l'amélioration continue de la qualité d'un site Internet, sous réserve d'une interprétation critique des résultats obtenus avant la mise en place de mesures correctives. Malgré une approche totalement différente, ces outils ont permis de mettre en évidence des lacunes similaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le recours aux échelles de mesure ou à des questionnaires est fréquent et souvent perçu comme la panacée pour évaluer des risques professionnels qui touchent à la sphère psychosociale. Néanmoins, ces outils doivent être réservés à des étapes très spécifiques d'une démarche de prévention des risques psychosociaux et leur choix parmi les échelles disponibles doit reposer sur des critères précis. Avant d'engager une démarche de prévention il sera possible d'utiliser certaines données existantes dans l'entreprise à l'occasion de l'étape prédiagnostique. L'analyse de ces données permettra de décider d'engager ou non une démarche de prévention qui nécessitera en premier lieu un diagnostic approfondi. Celui-ci devra évaluer d'une part les contraintes vécues au travail, et, d'autre part, l'état de santé des salariés. Le diagnostic des contraintes perçues peut s'appuyer sur des entretiens ou sur des échelles existantes telles que celles de Karasek et de Siegrist. Pour évaluer le niveau de stress chronique, on dispose également de questionnaires validés qui cotent les symptômes physiologiques et/ou psychologiques et, si la situation est déjà détériorée, on peut explorer les atteintes à la santé à travers des échelles de santé mentale. [Auteur]

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les crues et les risques de débordement des barrages, notamment des digues en terre, en cas de fortes précipitations, préoccupent depuis longtemps les autorités et la population. Les études réalisées dans les dernières années ont montré que le réchauffement global du climat s'est accompagné d'une augmentation de la fréquence des fortes précipitations et des crues en Suisse et dans de nombreuses régions du globe durant le 20ème siècle. Les modèles climatiques globaux et régionaux prévoient que la fréquence des fortes précipitations devrait continuer à croître durant le 21éme siècle en Suisse et dans le monde. Cela rend les recherches actuelles sur la modélisation des pluies et des crues à une échelle fine encore plus importantes. En Suisse, pour assurer une bonne protection sur le plan humain et économique, des cartes de précipitations maximales probables (PMP) ont été réalisées. Les PMP ont été confrontées avec les précipitations extrêmes mesurées dans les différentes régions du pays. Ces PMP sont ensuite utilisées par les modèles hydrologiques pour calculer des crues maximales probables (PMF). Cette la méthode PMP-PMF nécessite toutefois un certain nombre de précautions. Si elle est appliquée d'une manière incorrecte ou sur la base de données insuffisantes, elle peut entraîner une surestimation des débits de crue, notamment pour les grands bassins et pour les régions montagneuses entraînant des surcoûts importants. Ces problèmes résultent notamment du fait que la plupart des modèles hydrologiques répartissent les précipitations extrêmes (PMP) de manière uniforme dans le temps sur l'ensemble du bassin versant. Pour remédier ce problème, cette thèse a comme objectif principal de développer un modèle hydrologique distribué appelé MPF (Modeling Precipitation Flood) capable d'estimer la PMF de manière réaliste à partir de la PMP distribuée de manière spatio-temporelle à l'aide des nuages. Le modèle développé MPF comprend trois parties importantes. Dans la première partie, les précipitations extrêmes calculées par un modèle météorologique à une méso-échelle avec une résolution horizontale de 2 km, sont réparties à une échelle locale (25 ou 50 m) de manière non-uniforme dans l'espace et dans le temps. La deuxième partie concerne la modélisation de l'écoulement de l'eau en surface et en subsurface en incluant l'infiltration et l'exfiltration. Et la troisième partie inclut la modélisation de la fonte des neiges, basée sur un calcul de transfert de chaleur. Le modèle MPF a été calibré sur des bassins versants alpins où les données de précipitations et du débit sont disponibles pour une période considérablement longue, qui inclut plusieurs épisodes de fortes pluies avec des débits élevés. À partir de ces épisodes, les paramètres d'entrée du modèle tel que la rugosité du sol et la largeur moyenne des cours d'eau dans le cas d'écoulement de surface ont pu être estimés. Suivant la même procédure, les paramètres utilisés dans la simulation des écoulements en subsurface sont également estimés indirectement, puisque des mesures directes de l'écoulement en subsurface et de l'exfiltration sont difficiles à obtenir. Le modèle de distribution spatio-temporelle de la pluie a aussi été validé en utilisant les images radar avec la structure de la pluie provoquée par un nuage supercellulaire. Les hyétogrammes obtenus sur plusieurs points du terrain sont très proches de ceux enregistrées avec les images radar. Les résultats de la validation du modèle sur les épisodes de fortes crues présentent une bonne synchronisation entre le débit simulé et le débit observé. Cette corrélation a été mesurée avec trois critères d'efficacité, qui ont tous donné des valeurs satisfaisantes. Cela montre que le modèle développé est valide et il peut être utilisé pour des épisodes extrêmes tels que la PMP. Des simulations ont été faites sur plusieurs bassins ayant comme données d'entrée la pluie de type PMP. Des conditions variées ont été utilisées, comme la situation du sol saturé, ou non-saturé, ou la présence d'une couche de neige sur le terrain au moment de la PMP, ce qui conduit à une estimation de PMF pour des scénarios catastrophiques. Enfin, les résultats obtenus montrent comment mieux estimer la valeur de la crue de sécurité des barrages, à partir d'une pluie extrême dix-millennale avec une période de retour de 10'000 ans.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La thèse présentée ici est le résultat d'une étroite collaboration avec une ONG indienne, AKRSP(I), intervenant dans le développement de l'irrigation au Gujarat depuis plus de 25 ans. Un SIG prototype a été mis en oeuvre et nous permet de proposer ime analyse spatiale et quantitative de l'action de cette ONG ainsi qu'une réflexion plus générale sur les leviers de mise en valeur et de gestion des ressources en eau à des fins agricoles. On peut souligner trois principaux enseignements: Les perspectives d'application des SIG au sein des ONG sont manifestes. Les exigences des bailleurs de fonds peuvent néanmoins faire obstacle à leur développement car, indi-rectement, ils favorisent la mise en oeuvre de SI voués à la justification plutôt qu'à la planification et au suivi des programmes d'actions. Ce résultat soulève la question de la pertinence de l'encadrement, des critères d'évaluation et de la conditionnalité de l'aide publique au développement. Les ONG ont un fort potentiel pour participer à la mise en valeur des ressources en eau en Inde et aider à relever le défi agro-démographique indien, en particulier dans les zones marginales où les services étatiques sont en retrait. Les stratégies d'action basées principalement sur l'application des instruments économiques et techniques doivent cependant être modifiées. Nous montrons qu'elles favorisent une inégalité d'accès aux ressources qui débouche sur une efficacité limitée des pratiques d'irrigation, sur un plan agro-technique. Ces résultats soulignent la nécessité de poursuivre une réflexion critique des discours et solutions dominants en matière de gestion des ressources en eau. Deux pistes d'amélioration sont avancées: 1. considérer l'équité d'accès comme un moyen d'optimiser la gestion de la ressource (limiter le volume d'eau par agriculteur pour encourager les choix de cultures irriguées peu consommatrices et l'adoption des technologies d'économie d'eau), 2. prêter attention à l'ordre dans lequel les différents instruments de gestion disponibles sont employés afin de les articuler dans un séquençage temporel pertinent. La Political Ecology apparait comme un cadre conceptuel très pertinent pour engager cette réflexion critique. Elle permet d'intégrer différentes échelles d'asymétries de pouvoirs à la compréhension des situations et des blocages observables localement : inégalités de capabilités et forces socio-politiques à l'échelle locale, politiques agro-industrielles (coton) et jeux d'alliances politiques des castes à l'échelle nationale, discours et conflits idéologiques ou orientations stratégiques des bailleurs de fonds à l'échelle internationale... Notre recherche empirique contribue modestement au développement de cette Political Ecology de la mise en valeur et de la gestion des ressources en eau. - The present research is based on a close collaboration with an indian NGO, AKRSP(I), which is active in the development of irrigation facilities in Gujarat for the past 25 years. We built a GIS prototype providing quantitative and spatial datas to analyse the NGO intervention and propose a general reflection about water resources development and management issues. Three main findings may be emphasized : The potential of GIS within the workings of an NGO is obvious, as an information ma-nagement tool as much as for developing analytical capacity. However, financial backers expectations may not favour a relevant development of this technology. Indirectly, they promote Information Systems built to justify rather than to plan or monitor action pro¬grammes. This raises the question of stricter framework, conditionality criters and stan¬dardised assessment indicators surrounding official development assistance. There is strong potential that NGOs can assist with the improvement of water resources in India. They can help in overcoming Indian demographic-related agricultural challenges, especially in marginal rural areas neglected by state services. However, intervention strategies mainly based on technical and economic management tools has to be adapted. We found that they lead to inequitable access and distribution of water resources what induces a low efficiency of irrigation practices from an agro-technical point of view. These results underline the need to go further in criticizing dominant ideas and guidelines regarding water resources management. We suggest two other options : 1. to consider equitable access has a tool to improve the effective use of water for agricul¬tural purposes (limiting the volume of water available per farmer would encourage them to adopt low water consumption crops and water saving technics), 2. to consider more carefully the order of use of the various management tools available and to structure them in a relevant sequence. Here, Political Ecology seems to be a relevant conceptual framework to enter into such a critical reflection, integrating different levels and scales of political asymmetries at the core of environmental issues. Indeed, the understanding of regional water situations and social stumbling blocks needs not only to consider local capabilities and socio-political inequities, but also agro-industrial policy (e.i. cotton) and caste political alliances at a national scale, as well as ideological and narrative struggles or strategical orientations of financial backers at an international level. Our empirical research modestly contributes to the development of such a Political Ecology of water resources development and management.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce dernier numéro est l'occasion de faire un bilan et d'analyser les raisons qui nous ont conduits à décider de mettre un terme à l'existence d'une revue que nous avons animée pendant près de dix ans. Fidèles à la ligne éditoriale, nous dévoilons les coulisses de la production de Carnets de bord. Chemin faisant, nous nous livrons à un exercice d'auto-analyse susceptible d'éclairer la fragilité de ce genre d'initiatives intellectuelles dans un contexte universitaire où les critères managériaux d'évaluation ont largement gagné du terrain.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

AbstractAlthough the genomes from any two human individuals are more than 99.99% identical at the sequence level, some structural variation can be observed. Differences between genomes include single nucleotide polymorphism (SNP), inversion and copy number changes (gain or loss of DNA). The latter can range from submicroscopic events (CNVs, at least 1kb in size) to complete chromosomal aneuploidies. Small copy number variations have often no (lethal) consequences to the cell, but a few were associated to disease susceptibility and phenotypic variations. Larger re-arrangements (i.e. complete chromosome gain) are frequently associated with more severe consequences on health such as genomic disorders and cancer. High-throughput technologies like DNA microarrays enable the detection of CNVs in a genome-wide fashion. Since the initial catalogue of CNVs in the human genome in 2006, there has been tremendous interest in CNVs both in the context of population and medical genetics. Understanding CNV patterns within and between human populations is essential to elucidate their possible contribution to disease. But genome analysis is a challenging task; the technology evolves rapidly creating needs for novel, efficient and robust analytical tools which need to be compared with existing ones. Also, while the link between CNV and disease has been established, the relative CNV contribution is not fully understood and the predisposition to disease from CNVs of the general population has not been yet investigated.During my PhD thesis, I worked on several aspects related to CNVs. As l will report in chapter 3, ! was interested in computational methods to detect CNVs from the general population. I had access to the CoLaus dataset, a population-based study with more than 6,000 participants from the Lausanne area. All these individuals were analysed on SNP arrays and extensive clinical information were available. My work explored existing CNV detection methods and I developed a variety of metrics to compare their performance. Since these methods were not producing entirely satisfactory results, I implemented my own method which outperformed two existing methods. I also devised strategies to combine CNVs from different individuals into CNV regions.I was also interested in the clinical impact of CNVs in common disease (chapter 4). Through an international collaboration led by the Centre Hospitalier Universitaire Vaudois (CHUV) and the Imperial College London I was involved as a main data analyst in the investigation of a rare deletion at chromosome 16p11 detected in obese patients. Specifically, we compared 8,456 obese patients and 11,856 individuals from the general population and we found that the deletion was accounting for 0.7% of the morbid obesity cases and was absent in healthy non- obese controls. This highlights the importance of rare variants with strong impact and provides new insights in the design of clinical studies to identify the missing heritability in common disease.Furthermore, I was interested in the detection of somatic copy number alterations (SCNA) and their consequences in cancer (chapter 5). This project was a collaboration initiated by the Ludwig Institute for Cancer Research and involved other groups from the Swiss Institute of Bioinformatics, the CHUV and Universities of Lausanne and Geneva. The focus of my work was to identify genes with altered expression levels within somatic copy number alterations (SCNA) in seven metastatic melanoma ceil lines, using CGH and SNP arrays, RNA-seq, and karyotyping. Very few SCNA genes were shared by even two melanoma samples making it difficult to draw any conclusions at the individual gene level. To overcome this limitation, I used a network-guided analysis to determine whether any pathways, defined by amplified or deleted genes, were common among the samples. Six of the melanoma samples were potentially altered in four pathways and five samples harboured copy-number and expression changes in components of six pathways. In total, this approach identified 28 pathways. Validation with two external, large melanoma datasets confirmed all but three of the detected pathways and demonstrated the utility of network-guided approaches for both large and small datasets analysis.RésuméBien que le génome de deux individus soit similaire à plus de 99.99%, des différences de structure peuvent être observées. Ces différences incluent les polymorphismes simples de nucléotides, les inversions et les changements en nombre de copies (gain ou perte d'ADN). Ces derniers varient de petits événements dits sous-microscopiques (moins de 1kb en taille), appelés CNVs (copy number variants) jusqu'à des événements plus large pouvant affecter des chromosomes entiers. Les petites variations sont généralement sans conséquence pour la cellule, toutefois certaines ont été impliquées dans la prédisposition à certaines maladies, et à des variations phénotypiques dans la population générale. Les réarrangements plus grands (par exemple, une copie additionnelle d'un chromosome appelée communément trisomie) ont des répercutions plus grave pour la santé, comme par exemple dans certains syndromes génomiques et dans le cancer. Les technologies à haut-débit telle les puces à ADN permettent la détection de CNVs à l'échelle du génome humain. La cartographie en 2006 des CNV du génome humain, a suscité un fort intérêt en génétique des populations et en génétique médicale. La détection de différences au sein et entre plusieurs populations est un élément clef pour élucider la contribution possible des CNVs dans les maladies. Toutefois l'analyse du génome reste une tâche difficile, la technologie évolue très rapidement créant de nouveaux besoins pour le développement d'outils, l'amélioration des précédents, et la comparaison des différentes méthodes. De plus, si le lien entre CNV et maladie a été établit, leur contribution précise n'est pas encore comprise. De même que les études sur la prédisposition aux maladies par des CNVs détectés dans la population générale n'ont pas encore été réalisées.Pendant mon doctorat, je me suis concentré sur trois axes principaux ayant attrait aux CNV. Dans le chapitre 3, je détaille mes travaux sur les méthodes d'analyses des puces à ADN. J'ai eu accès aux données du projet CoLaus, une étude de la population de Lausanne. Dans cette étude, le génome de plus de 6000 individus a été analysé avec des puces SNP et de nombreuses informations cliniques ont été récoltées. Pendant mes travaux, j'ai utilisé et comparé plusieurs méthodes de détection des CNVs. Les résultats n'étant pas complètement satisfaisant, j'ai implémenté ma propre méthode qui donne de meilleures performances que deux des trois autres méthodes utilisées. Je me suis aussi intéressé aux stratégies pour combiner les CNVs de différents individus en régions.Je me suis aussi intéressé à l'impact clinique des CNVs dans le cas des maladies génétiques communes (chapitre 4). Ce projet fut possible grâce à une étroite collaboration avec le Centre Hospitalier Universitaire Vaudois (CHUV) et l'Impérial College à Londres. Dans ce projet, j'ai été l'un des analystes principaux et j'ai travaillé sur l'impact clinique d'une délétion rare du chromosome 16p11 présente chez des patients atteints d'obésité. Dans cette collaboration multidisciplinaire, nous avons comparés 8'456 patients atteint d'obésité et 11 '856 individus de la population générale. Nous avons trouvés que la délétion était impliquée dans 0.7% des cas d'obésité morbide et était absente chez les contrôles sains (non-atteint d'obésité). Notre étude illustre l'importance des CNVs rares qui peuvent avoir un impact clinique très important. De plus, ceci permet d'envisager une alternative aux études d'associations pour améliorer notre compréhension de l'étiologie des maladies génétiques communes.Egalement, j'ai travaillé sur la détection d'altérations somatiques en nombres de copies (SCNA) et de leurs conséquences pour le cancer (chapitre 5). Ce projet fut une collaboration initiée par l'Institut Ludwig de Recherche contre le Cancer et impliquant l'Institut Suisse de Bioinformatique, le CHUV et les Universités de Lausanne et Genève. Je me suis concentré sur l'identification de gènes affectés par des SCNAs et avec une sur- ou sous-expression dans des lignées cellulaires dérivées de mélanomes métastatiques. Les données utilisées ont été générées par des puces ADN (CGH et SNP) et du séquençage à haut débit du transcriptome. Mes recherches ont montrées que peu de gènes sont récurrents entre les mélanomes, ce qui rend difficile l'interprétation des résultats. Pour contourner ces limitations, j'ai utilisé une analyse de réseaux pour définir si des réseaux de signalisations enrichis en gènes amplifiés ou perdus, étaient communs aux différents échantillons. En fait, parmi les 28 réseaux détectés, quatre réseaux sont potentiellement dérégulés chez six mélanomes, et six réseaux supplémentaires sont affectés chez cinq mélanomes. La validation de ces résultats avec deux larges jeux de données publiques, a confirmée tous ces réseaux sauf trois. Ceci démontre l'utilité de cette approche pour l'analyse de petits et de larges jeux de données.Résumé grand publicL'avènement de la biologie moléculaire, en particulier ces dix dernières années, a révolutionné la recherche en génétique médicale. Grâce à la disponibilité du génome humain de référence dès 2001, de nouvelles technologies telles que les puces à ADN sont apparues et ont permis d'étudier le génome dans son ensemble avec une résolution dite sous-microscopique jusque-là impossible par les techniques traditionnelles de cytogénétique. Un des exemples les plus importants est l'étude des variations structurales du génome, en particulier l'étude du nombre de copies des gènes. Il était établi dès 1959 avec l'identification de la trisomie 21 par le professeur Jérôme Lejeune que le gain d'un chromosome supplémentaire était à l'origine de syndrome génétique avec des répercussions graves pour la santé du patient. Ces observations ont également été réalisées en oncologie sur les cellules cancéreuses qui accumulent fréquemment des aberrations en nombre de copies (telles que la perte ou le gain d'un ou plusieurs chromosomes). Dès 2004, plusieurs groupes de recherches ont répertorié des changements en nombre de copies dans des individus provenant de la population générale (c'est-à-dire sans symptômes cliniques visibles). En 2006, le Dr. Richard Redon a établi la première carte de variation en nombre de copies dans la population générale. Ces découvertes ont démontrées que les variations dans le génome était fréquentes et que la plupart d'entre elles étaient bénignes, c'est-à-dire sans conséquence clinique pour la santé de l'individu. Ceci a suscité un très grand intérêt pour comprendre les variations naturelles entre individus mais aussi pour mieux appréhender la prédisposition génétique à certaines maladies.Lors de ma thèse, j'ai développé de nouveaux outils informatiques pour l'analyse de puces à ADN dans le but de cartographier ces variations à l'échelle génomique. J'ai utilisé ces outils pour établir les variations dans la population suisse et je me suis consacré par la suite à l'étude de facteurs pouvant expliquer la prédisposition aux maladies telles que l'obésité. Cette étude en collaboration avec le Centre Hospitalier Universitaire Vaudois a permis l'identification d'une délétion sur le chromosome 16 expliquant 0.7% des cas d'obésité morbide. Cette étude a plusieurs répercussions. Tout d'abord elle permet d'effectuer le diagnostique chez les enfants à naître afin de déterminer leur prédisposition à l'obésité. Ensuite ce locus implique une vingtaine de gènes. Ceci permet de formuler de nouvelles hypothèses de travail et d'orienter la recherche afin d'améliorer notre compréhension de la maladie et l'espoir de découvrir un nouveau traitement Enfin notre étude fournit une alternative aux études d'association génétique qui n'ont eu jusqu'à présent qu'un succès mitigé.Dans la dernière partie de ma thèse, je me suis intéressé à l'analyse des aberrations en nombre de copies dans le cancer. Mon choix s'est porté sur l'étude de mélanomes, impliqués dans le cancer de la peau. Le mélanome est une tumeur très agressive, elle est responsable de 80% des décès des cancers de la peau et est souvent résistante aux traitements utilisés en oncologie (chimiothérapie, radiothérapie). Dans le cadre d'une collaboration entre l'Institut Ludwig de Recherche contre le Cancer, l'Institut Suisse de Bioinformatique, le CHUV et les universités de Lausanne et Genève, nous avons séquencés l'exome (les gènes) et le transcriptome (l'expression des gènes) de sept mélanomes métastatiques, effectués des analyses du nombre de copies par des puces à ADN et des caryotypes. Mes travaux ont permis le développement de nouvelles méthodes d'analyses adaptées au cancer, d'établir la liste des réseaux de signalisation cellulaire affectés de façon récurrente chez le mélanome et d'identifier deux cibles thérapeutiques potentielles jusqu'alors ignorées dans les cancers de la peau.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le modèle des 4 piliers de notre politique drogues sert volontiers d'exemple dans les discussions en cours sur une politique intégrée des substances psychotropes. Si des succès importants ont été obtenus, il convient cependant de ne pas sombrer dans un satisfecit complaisant sur la réalité de notre politique drogues. Malgré l'ancrage législatif des 4 piliers, de nombreux défis demeurent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse : But: la resténose intra-stent au sirolimus (SAS) reste un problème clinique. Parmi tes diverses approches thérapeutiques disponibles aujourd'hui aucune n'a la primauté car tes résultats à moyen terme restent relativement médiocres. Méthodologie: les patients souffrant d'une resténose intra-SAS chez lesquels un second SAS a été implanté comme traitement de cette resténose ont été inclus dans ce registre. Lors d'ischémie clinique ou électrique après implantation d'un SAS les malades chez lesquels l'angioplastie au ballon seul ne donnait pas un résultat satisfaisant ont bénéficié de l'implantation d'un stent actif dans un stent actif. Résultats: vingt-sept patients sont inclus dans ce registre. La resténose était de type focale dans 34% des cas, diffuse dans 59% des cas et proliférative dans 7% des cas. La procédure a été un succès chez tous les patients sans complications aiguës durant l'hospitalisation. A 14±7 mois, on dénombre 8 (30%) événements cardiaques majeurs (1 mort, 1 infarctus du myocarde, 4 revascularisations additionnelles de la lésion, 1 revascularisation additionnelle du vaisseau cible). Un patient a subi un pontage aorto-coronarien. Dix-neuf patients (70%) ont évolué sans aucun problème. Conclusion: en conclusion, l'implantation d'un SAS pour traiter une resténose intra-SAS est réalisable avec un très bon résultat immédiat. Cependant, l'incidence d'un événement cardiaque majeur reste élevée à long terme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RAPPORT DE SYNTHÈSE : Contexte Les programmes de prévention cardiovasculaire secondaire après un événement coronarien aigu ont pu démontrer leur efficacité dans le contexte des soins ambulatoires. L'hospitalisation pour une maladie aiguë peut être considérée comme un «instant charnière», particulièrement adapté à un changement de comportement de santé et où des interventions de prévention secondaire, telle l'éducation du patient, pourraient être particulièrement efficaces. De plus, la prescription de médicaments de prévention cardiovasculaire durant l'hospitalisation semble augmenter la proportion des patients traités selon les recommandations sur le long terme. Récemment, plusieurs études ont évalué l'efficacité de programmes de prévention ayant pour but l'éducation des patients et/ou une augmentation du taux de prescription de médicaments prouvés efficaces par les médecins en charge. L'article faisant l'objet du travail de thèse synthétise la littérature existante concernant l'efficacité en termes de mortalité des interventions multidimensionnelles de prévention cardiovasculaire après un syndrome coronarien aigu, débutées à l'hôpital, centrées sur le patient et ciblant plusieurs facteurs de risque cardiovasculaire. MÉTHODE ET RÉSULTATS : En utilisant une stratégie de recherche définie à l'avance, nous avons inclus des essais cliniques avec groupe contrôle et des études avant-après, débutées à l'hôpital et qui incluaient des résultats cliniques de suivi en terme de mortalité, de taux de réadmission et/ou de récidive de syndrome coronarien aigu. Nous avons catégorisé les études selon qu'elles ciblaient les patients (par exemple une intervention d'éducation aux patients par des infirmières), les soignants (par exemple des cours destinés aux médecins-assistants pour leur enseigner comment prodiguer des interventions éducatives) ou le système de soins (par exemple la mise en place d'itinéraires cliniques au niveau de l'institution). Globalement, les interventions rapportées dans les 14 études répondant aux critères montraient une réduction du risque relatif (RR) de mortalité après un an (RR= 0.79; 95% intervalle de confiance (IC), 0.69-0.92; n=37'585). Cependant, le bénéfice semblait dépendre du type d'étude et du niveau d'intervention. Les études avant-après suggéraient une réduction du risque de mortalité (RR, 0.77; 95% IC, 0.66-0.90; n=3680 décès), tandis que le RR était de 0.96 (95% IC, 0.64-1.44; n=99 décès) pour les études cliniques contrôlées. Seules les études avant-après et les études ciblant les soignants et le système, en plus de cibler les patients, semblaient montrer un bénéfice en termes de mortalité à une année. CONCLUSIONS ET PERSPECTIVES : Les preuves d'efficacité des interventions de prévention secondaires débutées à l'hôpital, ciblant le patient, sont prometteuses, mais pas définitives. En effet, seules les études avant-après montrent un bénéfice en termes de mortalité. Les recherches futures dans ce domaine devraient tester formellement quels éléments des interventions amènent le plus de bénéfices pour les patients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le but de ce travail doctoral était le développement de méthodes analytiques pour la détermination dethyl glucuronide et dethyl sulfate. Ces deux substances sont des métabolites directs de lethanol qui peuvent être détectées pendant des heures jusqu'à des jours dans des fluides corporels, après que léthanol ait été complètement éliminé du corps humain. Ce sont donc des marqueurs de consommation récente d'alcool.La majorité des expériences ont été effectuées en utilisant l'électrophorèse capillaire. Il était envisagé de fournir des méthodes utilisables dans des laboratoires de routine. Des méthodes électrophorétiques ont été développées et optimisées pour la détermination dethyl sulfate dans le sérum et l'urine ainsi que pour lethyl glucuronide dans le sérum. Lethyl glucuronide urinaire a pu être déterminé par un immunoassay commerciale qui a en plus été adapté avec succès pour des échantillons de sérum. Avec toutes ces méthodes d'analyse il était possible d'observer les deux marqueurs de consommation d'alcool récente, même une consommation aussi basse qu'un verre de boissons alcooliques.Finalement, une étude englobant plus de 100 échantillons aété effectuée avec l'ambition de déterminer les valeurs de référence pour lethyl glucuronide dans le sérum et l'urine. De plus, la nécessité de normaliser les échantillons d'urine par rapport à la dilution a été investiguée. Grâce à cette étude des valeurs de cut-off et une base statistique pour l'interprétation probabiliste ont pu être proposées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

3 Summary 3. 1 English The pharmaceutical industry has been facing several challenges during the last years, and the optimization of their drug discovery pipeline is believed to be the only viable solution. High-throughput techniques do participate actively to this optimization, especially when complemented by computational approaches aiming at rationalizing the enormous amount of information that they can produce. In siiico techniques, such as virtual screening or rational drug design, are now routinely used to guide drug discovery. Both heavily rely on the prediction of the molecular interaction (docking) occurring between drug-like molecules and a therapeutically relevant target. Several softwares are available to this end, but despite the very promising picture drawn in most benchmarks, they still hold several hidden weaknesses. As pointed out in several recent reviews, the docking problem is far from being solved, and there is now a need for methods able to identify binding modes with a high accuracy, which is essential to reliably compute the binding free energy of the ligand. This quantity is directly linked to its affinity and can be related to its biological activity. Accurate docking algorithms are thus critical for both the discovery and the rational optimization of new drugs. In this thesis, a new docking software aiming at this goal is presented, EADock. It uses a hybrid evolutionary algorithm with two fitness functions, in combination with a sophisticated management of the diversity. EADock is interfaced with .the CHARMM package for energy calculations and coordinate handling. A validation was carried out on 37 crystallized protein-ligand complexes featuring 11 different proteins. The search space was defined as a sphere of 15 R around the center of mass of the ligand position in the crystal structure, and conversely to other benchmarks, our algorithms was fed with optimized ligand positions up to 10 A root mean square deviation 2MSD) from the crystal structure. This validation illustrates the efficiency of our sampling heuristic, as correct binding modes, defined by a RMSD to the crystal structure lower than 2 A, were identified and ranked first for 68% of the complexes. The success rate increases to 78% when considering the five best-ranked clusters, and 92% when all clusters present in the last generation are taken into account. Most failures in this benchmark could be explained by the presence of crystal contacts in the experimental structure. EADock has been used to understand molecular interactions involved in the regulation of the Na,K ATPase, and in the activation of the nuclear hormone peroxisome proliferatoractivated receptors a (PPARa). It also helped to understand the action of common pollutants (phthalates) on PPARy, and the impact of biotransformations of the anticancer drug Imatinib (Gleevec®) on its binding mode to the Bcr-Abl tyrosine kinase. Finally, a fragment-based rational drug design approach using EADock was developed, and led to the successful design of new peptidic ligands for the a5ß1 integrin, and for the human PPARa. In both cases, the designed peptides presented activities comparable to that of well-established ligands such as the anticancer drug Cilengitide and Wy14,643, respectively. 3.2 French Les récentes difficultés de l'industrie pharmaceutique ne semblent pouvoir se résoudre que par l'optimisation de leur processus de développement de médicaments. Cette dernière implique de plus en plus. de techniques dites "haut-débit", particulièrement efficaces lorsqu'elles sont couplées aux outils informatiques permettant de gérer la masse de données produite. Désormais, les approches in silico telles que le criblage virtuel ou la conception rationnelle de nouvelles molécules sont utilisées couramment. Toutes deux reposent sur la capacité à prédire les détails de l'interaction moléculaire entre une molécule ressemblant à un principe actif (PA) et une protéine cible ayant un intérêt thérapeutique. Les comparatifs de logiciels s'attaquant à cette prédiction sont flatteurs, mais plusieurs problèmes subsistent. La littérature récente tend à remettre en cause leur fiabilité, affirmant l'émergence .d'un besoin pour des approches plus précises du mode d'interaction. Cette précision est essentielle au calcul de l'énergie libre de liaison, qui est directement liée à l'affinité du PA potentiel pour la protéine cible, et indirectement liée à son activité biologique. Une prédiction précise est d'une importance toute particulière pour la découverte et l'optimisation de nouvelles molécules actives. Cette thèse présente un nouveau logiciel, EADock, mettant en avant une telle précision. Cet algorithme évolutionnaire hybride utilise deux pressions de sélections, combinées à une gestion de la diversité sophistiquée. EADock repose sur CHARMM pour les calculs d'énergie et la gestion des coordonnées atomiques. Sa validation a été effectuée sur 37 complexes protéine-ligand cristallisés, incluant 11 protéines différentes. L'espace de recherche a été étendu à une sphère de 151 de rayon autour du centre de masse du ligand cristallisé, et contrairement aux comparatifs habituels, l'algorithme est parti de solutions optimisées présentant un RMSD jusqu'à 10 R par rapport à la structure cristalline. Cette validation a permis de mettre en évidence l'efficacité de notre heuristique de recherche car des modes d'interactions présentant un RMSD inférieur à 2 R par rapport à la structure cristalline ont été classés premier pour 68% des complexes. Lorsque les cinq meilleures solutions sont prises en compte, le taux de succès grimpe à 78%, et 92% lorsque la totalité de la dernière génération est prise en compte. La plupart des erreurs de prédiction sont imputables à la présence de contacts cristallins. Depuis, EADock a été utilisé pour comprendre les mécanismes moléculaires impliqués dans la régulation de la Na,K ATPase et dans l'activation du peroxisome proliferatoractivated receptor a (PPARa). Il a également permis de décrire l'interaction de polluants couramment rencontrés sur PPARy, ainsi que l'influence de la métabolisation de l'Imatinib (PA anticancéreux) sur la fixation à la kinase Bcr-Abl. Une approche basée sur la prédiction des interactions de fragments moléculaires avec protéine cible est également proposée. Elle a permis la découverte de nouveaux ligands peptidiques de PPARa et de l'intégrine a5ß1. Dans les deux cas, l'activité de ces nouveaux peptides est comparable à celles de ligands bien établis, comme le Wy14,643 pour le premier, et le Cilengitide (PA anticancéreux) pour la seconde.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectif de la présente étude est de cerner les facteurs de succès et d'échec des réouvertures et modernisations de lignes ferroviaires transfrontalières dans les zones limitrophes. L'enquête prend pour base deux lignes franco-belges (Mons-Valenciennes et Namur- Charleville-Mézières) et deux lignes franco-suisses (Delémont-Belfort et Neuchâtel- Besançon). Le problème public réside dans l'absence de moyens de transports publics exploitant le potentiel existant dans le bassin de vie concerné (sous-exploitation du marché des transports). Les obstacles à franchir dans le domaine des transports ferroviaires peuvent être de nature juridique. Ainsi, des prescriptions légales telles que certains standards d'interopérabilité, l'absence d'une définition de l'expression «train régional» au niveau européen, la sécurité (passages à niveau) ou des mesures en faveur des personnes à mobilité réduite, peuvent entraver, voire empêcher des réouvertures ou modernisations de lignes régionales, car ces standards ne sont pas adaptés à la réalité des lignes dont le potentiel est faible en termes de voyageurs et de fret. À un autre niveau, il est rare que les aspects techniques constituent des obstacles. C'est cependant le cas lorsque deux réseaux ferroviaires nourrissent des philosophies antagonistes (réseau cadencé et non cadencé). Pour la réouverture des lignes, on constate l'absence de définitions claires, au niveau politique, de la desserte de base et des seuils de fréquentation minimale. Il y a parfois un contraste marqué entre une infrastructure dégradée et un matériel roulant très moderne, signe d'absence de sensibilisation à l'entretien des infrastructures ferroviaires. Pourtant, ces infrastructures jouent un rôle important à l'échelon géopolitique. Correctement aménagées (offre, temps de parcours, correspondances), elles permettent le désenclavement de toute une région. La réouverture d'un chaînon manquant peut changer la position géopolitique d'une région, comme dans le cas de Mons-Valenciennes; mais en même temps, l'argument de l'impact géopolitique peut entraver une réouverture, même lorsqu'il n'est pas fondé, comme le montre le cas de Dinant-Givet qui semble concurrencer une autre ligne existante. L'impact des lignes à grande vitesse sur les régions limitrophes est souvent surestimé. En revanche, la praticabilité du concept des quatre capitaux (capital manufacturé, social, naturel et humain) est sous-estimée dans le domaine des transports publics. Les grilles d'analyse des quatre capitaux nous ont en effet permis de prouver l'applicabilité du concept aux lignes ferroviaires transfrontalières, en dépit du manque de me- surabilité de certains indicateurs. L'évaluation des lignes retenues à l'aide de notre grille d'analyse montre que les lignes régionales françaises accusent un lourd retard en termes de performance. Ce fait est confirmé dans les quatre capitaux. En appliquant notre méthode de planification à des lignes ferroviaires (transfrontalières), on observe que les lignes actuelles n'exploitent pas suffisamment leur potentiel. L'approche proposée se base sur le triangle «offre - infrastructure - matériel roulant» et s'articule autour des usagers. Avant toute planification, il faut développer une vision pour la région et la ligne concernée, dans laquelle la voie ferrée servira d'axe structurant. La vision se manifeste par un horaire qui traduit l'offre sou-haitée à long terme avec des temps de parcours idéaux, et des noeuds de correspondance avec d'autres moyens de transport. Alors, les lignes régionales peuvent contribuer à un changement de paradigme qui favorise un mode de vie axé davantage sur les services des transports publics que sur le transport individuel, également dans les régions limitrophes. - Het doel van deze Studie is het onderzocken von de redenen van het succès en van het falen van de heropening of modernisering van al of niet grensoverschrijdende spoorlijnen. Het on- derzoek is gebaseerd op twee Frans-Belgische lijnen (Bergen-Yalenciennes en Namen- Charleville-Mezières) en twee Frans-Zwitserse lijnen (Delémont-Belfort en Neuchâtel- Besançon). Het probleem is de afwezigheid van openbare transportmogelijkheden in de uitbating van de betrokken woongebieden (onderbenutting van de transportmarkt). De te overschrijden hindernissen op het gebied van spoorwegvervoer kunnen van juridische oorsprong zijn. Dat wil zeggen dat wettelijke vereisten zoals bepaalde standaarden voor inte- roperabiliteit, het ontbreken van een definitie van «regionale trein» op Europees niveau, de beveiliging (spoorwegovergangen) of maatregelen voor mensen met verminderde mobiliteit de heropening of modernisering van de regionale lijnen kunnen verhinderen, aangezien deze normen niet zijn aangepast aan de realiteit op aan de lijnen waarvan het potenti eel laag is, zowel voor reizigers als voor goederen. Op een ander niveau is het zeldzaam dat de technische as-pecten voor obstakels zorgen. Het is nochtans het geval wanneer twee spoorwegnetten zorgen voor tegenstrijdige ideeën (regelmatig of onregelmatig bezet net). Om de lijnen te he- ropenen, is er een gebrek aan duidelijke afspraken op politiek niveau, voor een minimale be- diening en een minimale opkomst. Soms is er een groot contrast tussen een verouderde infras- tructuur en een zeer modem rollend materieel, een teken van gebrek aan gezond verstand bij het onderhoud van de spoorweginfrastructuur. Deze infrastructuur speelt echter een belan- grijke roi in het geopolitieke niveau. Goed beheerd (aanbod, reistijd, verbindingen) zorgen ze voor een heropening van een hele regio. De heropening van een ontbrekende schakel kan de geopolitieke positie van een regio veranderen, zoals in het geval van Bergen-Valenciennes, maar terzelfder tijd kan het argument van de geopolitieke impact een heropening verhinderen, zelfs als het ongegrond is, zoals in het geval van Dinant-Givet dat blijkt te concurreren met een andere bestaande lijn. De impact van hogesnelheidslijnen op grensoverschrijdende regio's wordt vaak overschat. Daartegenover wordt de haalbaarheid van het concept van de vier kapi- taalvlakken (opbouwend, sociaal, natuurlijk en menselijk kapitaal) onderschat op het gebied van openbaar vervoer. De analyse van de vier kapitaalvlakken heeft ons toegelaten de toepas- baar-heid van het concept van de grensoverschrijdende spoorlijnen aan te tonen, ondanks het ge-brek aan meetbaarheid van bepaalde indicatoren. Evaluatie van de lijnen, geselecteerd met behulp van ons analysekader, heeft aangetoond dat Franse regionale lijnen achterblijven op het gebied van prestaties. Dit wordt bevestigd op de vier kapitaalvlakken. Door het toepassen van onze planningsmethode op spoorlijnen (in grenszones), zien we dat de huidige lijnen hun potentieel onvoldoende benutten. De voorgestelde aanpak is gebaseerd op de driehoek «aan- bieding - infrastructuur - rollend materieel» en rieht zieh op de gebruikers. Vooraleer een planning opgesteld kan worden, moeten we een visie ontwikkelen voor de betrokken lijn en de regio waarin de spoorweg zal dienen als structurele as. De visie baseert zieh op een diens- tregeling die uitgaat van een aanbod op lange termijn met ideale rijtijden en knooppunten met an-dere transportmiddelen. Zodoende kunnen regionale lijnen bijdragen aan een paradigma- vers-chuiving die een levensstijl promoot die meer gericht is op het openbaar vervoer dan op het individueel vervoer, ook in naburige regio's. - Das Ziel der Studie ist die Identifizierung von Erfolgs- und Misserfolgsfaktoren bei Wiedereröffnungen und Modernisierungen von (grenzüberschreitenden) Regionalverkehrslinien in Randregionen. Die Untersuchung stützt sich auf zwei belgisch-französische (Mons- Valenciennes und Namur-Charleville-Mézières) sowie zwei schweizerisch-französische Linien (Delémont-Belfort und Neuchâtel-Besançon). Das öffentliche Problem besteht im Fehlen eines öffentlichen Verkehrsmittels, welches das vorhandene Potential im Einzugsbereich der betrachteten Linien vollständig ausnützt (unvollständige Ausnützung des vorhandenen Transportmarktes). Die zu überwindenden Hindernisse auf dem Gebiet des Eisenbahnwesens können juristischer Natur sein. Es handelt sich dabei um gewisse juristische Vorschriften w. z. B. Interoperabili- tätsstandards, die Abwesenheit einer klaren Definition des Begriffes «Regionalverkehr» auf europäischer Ebene, Sicherheitsstandards (Bahnübergänge) oder Massnahmen zu Gunsten von Behinderten, die Wiedereröffnungen behindern können, weil diese Standards keine Rücksicht auf die Gegebenheiten von Regionallinien mit einem geringen Nachfragepotential nehmen. Technische Vorgaben stellen nur selten ein Hindernis bei Wiedereröffnungen dar. Dies kann dann der Fall sein, wenn zwei Eisenbahnnetze mit unterschiedlichen Betriebsphilosophien aufeinander treffen (Netz mit Taktverkehr und unvertaktete Netze). Bei Wiedereröffnung von Eisenbahnlinie ist festzustellen, dass auf politischer Ebene keine Definitionen in Bezug auf Basisangebot und der minimalen Nachfrage bestehen. Bisweilen ist ein starker Kontrast zwischen einem schlechten Infrastrukturzustand und einem darauf verkehrenden modernem Rollmaterial festzustellen. Gerade diese Infrastruktur spielt auf geopolitischer Ebene eine wichtige Rolle. Wird diese korrekt betrieben (attraktives Angebot, Fahrzeit, Umsteigeverbindungen), erlaubt sie einer ganzen Region eine Lösung aus der Isolation. Die Wiedereröffnung eines fehlenden Teilstücks kann die geopolitische Situation einer Region positiv verändern, wie das Beispiel der Linie Mons-Valenciennes zeigt. Gleichzeitig kann das Argument der geopolitischen Position eine Wiedereröffnung behindern, auch wenn die vorgebrachten Argumente nicht stichhaltig sind, wie das Beispiel der Linie Dinant-Givet beweist, die angeblich einen bestehenden Eisenbahgüterverkehrskorridor konkurrenzieren soll. Der Einfluss von Hochgeschwindigkeitsstrecken auf Randregionen wird oft überschätzt. Im Gegensatz dazu wird die Anwendbarkeit des Konzeptes der vier Kapitalien (konstruiertes, soziales, natürliches und Human-Kapital) bei der Anwendbarkeit im öffentlichen Verkehr unters-chätzt. Der verwendete Analyseraster der vier Kapitalien erlaubt die Anwendbarkeit dieses Ansatzes auf grenzüberschreitende Eisenbahnlinien, trotz des Fehlens von Daten für zahlreiche Indikatoren, zu untermauern. Die Evaluation der betrachteten Linien hat gezeigt, dass die französischen Schienenregionalverkehrslinien einen bedeutenden Rückstand in Bezug auf die Leistungsfähigkeit vorweisen. Dies wird durch die Anwendung des Analyseraster der vier Kapitalien bestätigt. Der Einsatz, der in dieser Arbeit entwickelten Planungsmethode auf die vier grenzüberschreitenden Regionalverkehrslinien hat gezeigt, dass die heutige Betriebsweise von Regionalverkehrslinien das vorhandene Potential nicht ausschöpft. Der vorgeschlagene Ansatz basiert auf dem Dreieck «Angebot - Infrastruktur - Rollmaterial» in dem die Benützerlnnen im Zentrum stehen. Jedoch steht die Entwicklung einer Vision für die betroffene Region und Linie vor dem Beginn jeder Planung im Zentrum, bei der die Eisenbahnlinie als strukturierende Achse benützt wird. Diese manifestiert sich in einer Fahrplanstruktur, die das langfristig gewünschte Angebot mit idealen Fahrzeiten und Umsteigeknoten mit anderen Verkehrsmitteln beinhaltet. In dieser Weise können die Regionalverkehrslinien einen Beitrag zu einem Paradigmawechsel beitragen, der auch in Randregionen einen Lebensstil fördert, der vermehrt auf den öffentlichen Verkehr als auf den motorisierten Individualverkehr setzt. - L'obiettivo di questo studio è quello di identificare i fattori di successo e di fallimento relativi alla riapertura e modernizzazione di linee ferroviarie transfrontaliere e non in aree limitrofe. L'indagine si basa su due linee franco-belghe (Mons-Valenciennes e Namur-Charleville- Mézières) e due linee franco-svizzere (Delémont-Belfort e Neuchâtel-Besançon). Il problema pubblico è la mancanza di mezzi di trasporto pubblico che sfruttino il potenziale esistente nel bacino d'utenza interessato (sottoutilizzazione del mercato dei trasporti). Gli ostacoli da superare nel settore del trasporto ferroviario possono essere di natura giuridica - vale a dire, requisiti legali come alcuni standard d'interoperabilità, l'assenza di una definizione del termine «treno regionale» a livello europeo, la sicurezza (passaggi a livello) o misure a favore di persone a mobilità ridotta, che possono ostacolare o impedire la riapertura o modernizzazione di linee regionali poiché queste norme non vengono adattate alla realtà delle linee il cui potenziale è basso in termini di viaggiatori e merci. A un altro livello è raro che aspetti tecnici costituiscano degli ostacoli. Tuttavia è il caso quando due reti ferroviarie perseguono filosofie antagoniste (rete cadenzata e non cadenzata). Per riaprire le linee si rileva una mancanza di definizioni chiare, a livello politico, del collegamento di base e delle soglie minime di frequentazione. A volte vi è un netto contrasto tra un'infrastruttura degradata e un modernissimo materiale rotabile, segno della mancanza di sensibilizzazione per la manutenzione delle infrastrutture ferroviarie. Eppure queste strutture svolgono un ruolo importante a livello geopolitico. Correttamente gestite (offerta, tempi di percorrenza, coincidenze), permettono l'apertura verso l'esterno di un'intera regione. La riapertura di un tassello mancante può cambiare la posizione geopolitica di una regione, come nel caso di Mons-Valenciennes. Allo stesso tempo, tuttavia, l'argomento dell'impatto geopolitico, anche se infondato, può ostacolare una riapertura - come nel caso di Dinant-Givet che sembra fare concorrenza a un'altra linea esistente. L'impatto delle linee ad alta velocità sulle regioni limitrofe è spesso sovrastimato. In compenso, l'attuabilità del concetto dei quattro capitali (capitale fabbricato, sociale, naturale e umano) è sottovalutata nel settore dei trasporti pubblici. Le griglie d'analisi dei quattro capitali ci hanno effettivamente permesso di dimostrare l'applicabilità del concetto alle linee ferroviarie transfrontaliere, nonostante la mancanza di misurabilità di alcuni indicatori. La valutazione delle linee selezionate in supporto alla nostra griglia d'analisi mostra che le linee regionali francesi accusano un pesante ritardo in termini di prestazioni. Questo dato di fatto è confermato nei quattro capitali. Applicando il nostro metodo di pianificazione alle linee ferroviarie (transfrontaliere), si osserva che le attuali linee non sfruttano a sufficienza il loro potenziale. L'approccio proposto è basato sul triangolo «offerta / infrastrutture / materiale rotabile» e si articola attorno agli utenti. Prima di qualsiasi pianificazione, è necessario sviluppare una visione per la regione e la linea coinvolta, in cui la ferrovia servirà come asse strutturale. La visione si manifesta attraverso un orario che rifletta l'offerta desiderata a lungo termine, con tempi di percorrenza ideali e nodi di coincidenza con altri mezzi di trasporto. In questo modo, le linee regionali possono contribuire a un cambiamento di paradigma che favorisca uno stile di vita più focalizzato sui servizi di trasporto pubblico che sul trasporto individuale - anche nelle regioni limitrofe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cet article, nous présenterons le modèle biopsychosocial du trouble de ln personnalité borderline et le mettrons en lien avec les critères développés dans les manuels diagnostiques (DSM-IV-TR, CIM-10). Seront ensuite e:rplicité les principaux cadres de prise en charge de la thérapie comportementale- dialectique (TCD), tels que conçus par Marsha M. Linehan. Le modèle des dimensions de l'ouverture émotionnelle permettra d'enrichir la conceptualisation des émotions de la TCD. Nous insisterons particulièrement sur le groupe thérapeutique de Gestion des Émotions, inspiré des principes constitutifs de la TCD. Les premiers résultats d'une étude pilote et la présentation d'une étude randomisée contrôlée seront discutés, en tenant compte des exigences cliniques et des considérations méthodologiques de l'évaluation des psychothérapies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract Phenotypic polymorphism is an ideal system to study natural selection in wild populations, because it allows tracking population genetic changes by means of phenotypic changes. A wide variety of polymorphic traits have been studied in numerous animals and plants, as for example colour patterns in moths, snails and birds, human laterality, male reproductive strategies, plant morphology or mating systems. This thesis focused on Dactylorhiza sarnbucina, a rewardless European orchid species, showing a striking flower colour polymorphism, with either yellow or red flowered individuals co-occurring in natural populations. Several studies have investigated its evolutionary ecology since Nilsson's seminal paper in 1980, with a particular emphasis in the evolution and maintenance of its colour polymorphism. One of the main selective forces proposed to maintain this colour polymorphism was pollinator driven negative frequency-dependent selection (NFDS), when each morph is advantaged when rare, and comparatively disadvantaged when common. However, other investigators have recently questioned the occurrence of NFDS, and proposed alternatively that fluctuating selection may maintain this colour polymorphism. In this thesis, we aimed at reviewing and synthesizing these different studies, and also brought our contribution on D. sambucina reproductive ecology. Because numerous hypotheses have still to be tested, we concluded by saying that we are a long way from understanding the evolution and dynamics of colour polymorphism in natural D. sambucina populations. Beside the debated question of colour polymorphism maintenance, one question remained to be tested: what are the consequences of polymorphism per se. We experimentally addressed this question using artificial populations of D. sambucina, and found no relationship between population phenotypic diversity and orchid pollination success. This finding suggest that polymorphism itself was not an advantage for deceptive species such D sambucina, contrarily to the expectations. Finally, we suggest potential research perspectives that could allow a better understanding of the evolutionary ecology of this species. Résumé Le polymorphisme phénotypique est un système biologique idéal pour étudier l'action de la sélection en populations naturelles, grâce à la possibilité de suivre les changements génétiques de la population en étudiant les phénotypes des individus. De très nombreuses études ont montré du polymorphisme phénotypique chez les animaux, par exemple la latéralité chez l'Homme, la coloration des escargots ou des oiseaux. Dans le règne végétal, le polymorphisme est souvent associé à des traits du système de reproduction. Cette thèse est centrée sur une espèce d'orchidée Européenne qui ne produit pas de nectar, Dactylorhiza sambucina. Cette espèce présente des individus à fleurs jaunes et des individus à fleurs rouge, généralement présents en mélange dans les populations naturelles. Plusieurs études ont investigué l'écologie évolutive de cette espèce depuis 25 ans, avec comme thème central l'évolution et le maintien de ce polymorphisme. La principale force sélective proposée pour maintenir ce polymorphisme de couleur est la sélection fréquence-dépendante, exercée par le comportement des pollinisateurs. Chacun des deux variants de couleur est favorisé quand il est rare, et défavorisé quand il devient commun. Bien que ce mécanisme semble agir, certains auteurs doutent de son importance, et ont proposé que les variations temporelles ou spatiales des forces de sélection puisse maintenir le polymorphisme de couleur chez D. sambucina. Dans cette thèse, nous avons voulu résumer et synthétiser les résultats de ces différentes études, et aussi présenter des données nouvelles concernant la reproduction de cette espèce. À la vue de ces résultats, il apparait que de nombreux points nécessitent des expériences complémentaires, et que la compréhension de ce système biologique est encore fragmentaire. Nous nous sommes également intéressés à une question laissée en suspens dans la littérature: le polymorphisme de couleur en soit confère-t-il un avantage à l'espèce, comme proposé par certains auteurs? En construisant des populations artificielles de D. sambucina, nous avons pu montrer que le polymorphisme de couleur n'augmente pas le succès reproducteur de l'espèce. Nous terminons ce travail de recherche en proposant plusieurs axes de recherche pouvant conduire à une meilleure compréhension de l'écologie et de l'évolution de cette espèce.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

EXECUTIVE SUMMARY : Evaluating Information Security Posture within an organization is becoming a very complex task. Currently, the evaluation and assessment of Information Security are commonly performed using frameworks, methodologies and standards which often consider the various aspects of security independently. Unfortunately this is ineffective because it does not take into consideration the necessity of having a global and systemic multidimensional approach to Information Security evaluation. At the same time the overall security level is globally considered to be only as strong as its weakest link. This thesis proposes a model aiming to holistically assess all dimensions of security in order to minimize the likelihood that a given threat will exploit the weakest link. A formalized structure taking into account all security elements is presented; this is based on a methodological evaluation framework in which Information Security is evaluated from a global perspective. This dissertation is divided into three parts. Part One: Information Security Evaluation issues consists of four chapters. Chapter 1 is an introduction to the purpose of this research purpose and the Model that will be proposed. In this chapter we raise some questions with respect to "traditional evaluation methods" as well as identifying the principal elements to be addressed in this direction. Then we introduce the baseline attributes of our model and set out the expected result of evaluations according to our model. Chapter 2 is focused on the definition of Information Security to be used as a reference point for our evaluation model. The inherent concepts of the contents of a holistic and baseline Information Security Program are defined. Based on this, the most common roots-of-trust in Information Security are identified. Chapter 3 focuses on an analysis of the difference and the relationship between the concepts of Information Risk and Security Management. Comparing these two concepts allows us to identify the most relevant elements to be included within our evaluation model, while clearing situating these two notions within a defined framework is of the utmost importance for the results that will be obtained from the evaluation process. Chapter 4 sets out our evaluation model and the way it addresses issues relating to the evaluation of Information Security. Within this Chapter the underlying concepts of assurance and trust are discussed. Based on these two concepts, the structure of the model is developed in order to provide an assurance related platform as well as three evaluation attributes: "assurance structure", "quality issues", and "requirements achievement". Issues relating to each of these evaluation attributes are analysed with reference to sources such as methodologies, standards and published research papers. Then the operation of the model is discussed. Assurance levels, quality levels and maturity levels are defined in order to perform the evaluation according to the model. Part Two: Implementation of the Information Security Assurance Assessment Model (ISAAM) according to the Information Security Domains consists of four chapters. This is the section where our evaluation model is put into a welldefined context with respect to the four pre-defined Information Security dimensions: the Organizational dimension, Functional dimension, Human dimension, and Legal dimension. Each Information Security dimension is discussed in a separate chapter. For each dimension, the following two-phase evaluation path is followed. The first phase concerns the identification of the elements which will constitute the basis of the evaluation: ? Identification of the key elements within the dimension; ? Identification of the Focus Areas for each dimension, consisting of the security issues identified for each dimension; ? Identification of the Specific Factors for each dimension, consisting of the security measures or control addressing the security issues identified for each dimension. The second phase concerns the evaluation of each Information Security dimension by: ? The implementation of the evaluation model, based on the elements identified for each dimension within the first phase, by identifying the security tasks, processes, procedures, and actions that should have been performed by the organization to reach the desired level of protection; ? The maturity model for each dimension as a basis for reliance on security. For each dimension we propose a generic maturity model that could be used by every organization in order to define its own security requirements. Part three of this dissertation contains the Final Remarks, Supporting Resources and Annexes. With reference to the objectives of our thesis, the Final Remarks briefly analyse whether these objectives were achieved and suggest directions for future related research. Supporting resources comprise the bibliographic resources that were used to elaborate and justify our approach. Annexes include all the relevant topics identified within the literature to illustrate certain aspects of our approach. Our Information Security evaluation model is based on and integrates different Information Security best practices, standards, methodologies and research expertise which can be combined in order to define an reliable categorization of Information Security. After the definition of terms and requirements, an evaluation process should be performed in order to obtain evidence that the Information Security within the organization in question is adequately managed. We have specifically integrated into our model the most useful elements of these sources of information in order to provide a generic model able to be implemented in all kinds of organizations. The value added by our evaluation model is that it is easy to implement and operate and answers concrete needs in terms of reliance upon an efficient and dynamic evaluation tool through a coherent evaluation system. On that basis, our model could be implemented internally within organizations, allowing them to govern better their Information Security. RÉSUMÉ : Contexte général de la thèse L'évaluation de la sécurité en général, et plus particulièrement, celle de la sécurité de l'information, est devenue pour les organisations non seulement une mission cruciale à réaliser, mais aussi de plus en plus complexe. A l'heure actuelle, cette évaluation se base principalement sur des méthodologies, des bonnes pratiques, des normes ou des standards qui appréhendent séparément les différents aspects qui composent la sécurité de l'information. Nous pensons que cette manière d'évaluer la sécurité est inefficiente, car elle ne tient pas compte de l'interaction des différentes dimensions et composantes de la sécurité entre elles, bien qu'il soit admis depuis longtemps que le niveau de sécurité globale d'une organisation est toujours celui du maillon le plus faible de la chaîne sécuritaire. Nous avons identifié le besoin d'une approche globale, intégrée, systémique et multidimensionnelle de l'évaluation de la sécurité de l'information. En effet, et c'est le point de départ de notre thèse, nous démontrons que seule une prise en compte globale de la sécurité permettra de répondre aux exigences de sécurité optimale ainsi qu'aux besoins de protection spécifiques d'une organisation. Ainsi, notre thèse propose un nouveau paradigme d'évaluation de la sécurité afin de satisfaire aux besoins d'efficacité et d'efficience d'une organisation donnée. Nous proposons alors un modèle qui vise à évaluer d'une manière holistique toutes les dimensions de la sécurité, afin de minimiser la probabilité qu'une menace potentielle puisse exploiter des vulnérabilités et engendrer des dommages directs ou indirects. Ce modèle se base sur une structure formalisée qui prend en compte tous les éléments d'un système ou programme de sécurité. Ainsi, nous proposons un cadre méthodologique d'évaluation qui considère la sécurité de l'information à partir d'une perspective globale. Structure de la thèse et thèmes abordés Notre document est structuré en trois parties. La première intitulée : « La problématique de l'évaluation de la sécurité de l'information » est composée de quatre chapitres. Le chapitre 1 introduit l'objet de la recherche ainsi que les concepts de base du modèle d'évaluation proposé. La maniéré traditionnelle de l'évaluation de la sécurité fait l'objet d'une analyse critique pour identifier les éléments principaux et invariants à prendre en compte dans notre approche holistique. Les éléments de base de notre modèle d'évaluation ainsi que son fonctionnement attendu sont ensuite présentés pour pouvoir tracer les résultats attendus de ce modèle. Le chapitre 2 se focalise sur la définition de la notion de Sécurité de l'Information. Il ne s'agit pas d'une redéfinition de la notion de la sécurité, mais d'une mise en perspectives des dimensions, critères, indicateurs à utiliser comme base de référence, afin de déterminer l'objet de l'évaluation qui sera utilisé tout au long de notre travail. Les concepts inhérents de ce qui constitue le caractère holistique de la sécurité ainsi que les éléments constitutifs d'un niveau de référence de sécurité sont définis en conséquence. Ceci permet d'identifier ceux que nous avons dénommés « les racines de confiance ». Le chapitre 3 présente et analyse la différence et les relations qui existent entre les processus de la Gestion des Risques et de la Gestion de la Sécurité, afin d'identifier les éléments constitutifs du cadre de protection à inclure dans notre modèle d'évaluation. Le chapitre 4 est consacré à la présentation de notre modèle d'évaluation Information Security Assurance Assessment Model (ISAAM) et la manière dont il répond aux exigences de l'évaluation telle que nous les avons préalablement présentées. Dans ce chapitre les concepts sous-jacents relatifs aux notions d'assurance et de confiance sont analysés. En se basant sur ces deux concepts, la structure du modèle d'évaluation est développée pour obtenir une plateforme qui offre un certain niveau de garantie en s'appuyant sur trois attributs d'évaluation, à savoir : « la structure de confiance », « la qualité du processus », et « la réalisation des exigences et des objectifs ». Les problématiques liées à chacun de ces attributs d'évaluation sont analysées en se basant sur l'état de l'art de la recherche et de la littérature, sur les différentes méthodes existantes ainsi que sur les normes et les standards les plus courants dans le domaine de la sécurité. Sur cette base, trois différents niveaux d'évaluation sont construits, à savoir : le niveau d'assurance, le niveau de qualité et le niveau de maturité qui constituent la base de l'évaluation de l'état global de la sécurité d'une organisation. La deuxième partie: « L'application du Modèle d'évaluation de l'assurance de la sécurité de l'information par domaine de sécurité » est elle aussi composée de quatre chapitres. Le modèle d'évaluation déjà construit et analysé est, dans cette partie, mis dans un contexte spécifique selon les quatre dimensions prédéfinies de sécurité qui sont: la dimension Organisationnelle, la dimension Fonctionnelle, la dimension Humaine, et la dimension Légale. Chacune de ces dimensions et son évaluation spécifique fait l'objet d'un chapitre distinct. Pour chacune des dimensions, une évaluation en deux phases est construite comme suit. La première phase concerne l'identification des éléments qui constituent la base de l'évaluation: ? Identification des éléments clés de l'évaluation ; ? Identification des « Focus Area » pour chaque dimension qui représentent les problématiques se trouvant dans la dimension ; ? Identification des « Specific Factors » pour chaque Focus Area qui représentent les mesures de sécurité et de contrôle qui contribuent à résoudre ou à diminuer les impacts des risques. La deuxième phase concerne l'évaluation de chaque dimension précédemment présentées. Elle est constituée d'une part, de l'implémentation du modèle général d'évaluation à la dimension concernée en : ? Se basant sur les éléments spécifiés lors de la première phase ; ? Identifiant les taches sécuritaires spécifiques, les processus, les procédures qui auraient dû être effectués pour atteindre le niveau de protection souhaité. D'autre part, l'évaluation de chaque dimension est complétée par la proposition d'un modèle de maturité spécifique à chaque dimension, qui est à considérer comme une base de référence pour le niveau global de sécurité. Pour chaque dimension nous proposons un modèle de maturité générique qui peut être utilisé par chaque organisation, afin de spécifier ses propres exigences en matière de sécurité. Cela constitue une innovation dans le domaine de l'évaluation, que nous justifions pour chaque dimension et dont nous mettons systématiquement en avant la plus value apportée. La troisième partie de notre document est relative à la validation globale de notre proposition et contient en guise de conclusion, une mise en perspective critique de notre travail et des remarques finales. Cette dernière partie est complétée par une bibliographie et des annexes. Notre modèle d'évaluation de la sécurité intègre et se base sur de nombreuses sources d'expertise, telles que les bonnes pratiques, les normes, les standards, les méthodes et l'expertise de la recherche scientifique du domaine. Notre proposition constructive répond à un véritable problème non encore résolu, auquel doivent faire face toutes les organisations, indépendamment de la taille et du profil. Cela permettrait à ces dernières de spécifier leurs exigences particulières en matière du niveau de sécurité à satisfaire, d'instancier un processus d'évaluation spécifique à leurs besoins afin qu'elles puissent s'assurer que leur sécurité de l'information soit gérée d'une manière appropriée, offrant ainsi un certain niveau de confiance dans le degré de protection fourni. Nous avons intégré dans notre modèle le meilleur du savoir faire, de l'expérience et de l'expertise disponible actuellement au niveau international, dans le but de fournir un modèle d'évaluation simple, générique et applicable à un grand nombre d'organisations publiques ou privées. La valeur ajoutée de notre modèle d'évaluation réside précisément dans le fait qu'il est suffisamment générique et facile à implémenter tout en apportant des réponses sur les besoins concrets des organisations. Ainsi notre proposition constitue un outil d'évaluation fiable, efficient et dynamique découlant d'une approche d'évaluation cohérente. De ce fait, notre système d'évaluation peut être implémenté à l'interne par l'entreprise elle-même, sans recourir à des ressources supplémentaires et lui donne également ainsi la possibilité de mieux gouverner sa sécurité de l'information.