373 resultados para Critères de succès
Resumo:
La présente étude s'inscrit dans la continuité des revues d'hospitalisation déjà conduites au CHUV. Elle consiste à documenter la pertinence des admissions et des journées d'hospitalisation dans le Service de neurologie pour les patients admis entre le 1er octobre 1996 et le 30 mars 1997. Soutenue par le Fonds de performance vaudois, cette étude pousuit trois buts: 1. vérifier l'applicabilité du protocole de Gertman et Restuccia au contexte de la neurologie; 2. élaborer un instrument de détection des journées non justifiées; 3. identifier les mesures permettant de diminuer le taux de journées non justifiées (...). [Table des matières] 1. Matériel et méthode. 1.1. Protocole princeps. 1.2. Protocole adapté. 1.3. Analyse des causes de délai. 2. Résultats : exhaustivité de la cueillette de données. 3. Discussion et conclusions. 4. Annexes : 1. Limites temporelles du critère C15. 2. Soins requis (PNR). 3. Formulaire de saisie. 4. Responsabilités des délais. 5. Distribution des critères. 6. Causes de délai.
Resumo:
Résumé sous forme de thèses 1. La présente thèse de doctorat traite de la problématique des licences obligatoires en droit communautaire de la concurrence. Plus précisément, il s'agit d'examiner si et sous quelles conditions le refus de licencier un droit de propriété intellectuelle par une entreprise peut constituer un abus d'une position dominante selon l'article 82 du Traité CE. L'étude fait notamment référence aux marchés de haute technologie et ici à la décision Microsoft, qui a été publiée par la Commission européenne en mars 2004 et qui porte, dans sa deuxième partie, sur la possibilité de rendre interopérables différents composants, via des informations appelées interfaces. 2. La question d'une licence obligatoire ne se pose que si l'information recherchée est protégée par un droit de propriété intellectuelle et si cette information ne peut être obtenue par d'autres moyens. C'est pourquoi la première partie de l'étude examine deux sujets importants concernant l'interopérabilité: d'une part la méthode de décompilation permet-elle d'obtenir des interfaces de logiciel, d'autre part, les interfaces sont-elles protégées par le droit d'auteur. 3. En ce qui concerne la décompilation des programmes d'ordinateur, l'étude démontre que cette méthode ne permet pas de rendre interopérables différents programmes d'ordinateur de manière efficace. Le droit européen a légalisé cette méthode, après des débats publics très vifs, par l'article 6 de la directive concernant la protection juridique des programmes d'ordinateur (91/250/CEE). Il semble néanmoins que la lutte pour un tel droit de décompilation a été vaine :Tout d'abord, l'article 6 est rédigé d'une façon très complexe et autorise une décompilation seulement selon des conditions très restrictives. En plus, la décompilation en elle-même est un travail très complexe qui peut durer des années et qui ne garantit pas de trouver les informations recherchées. 4. En outre, une réglementation de décompilation n'existe jusqu'à présent que dans le domaine du droit d'auteur, tandis qu'une règlementation pour la protection juridique des brevets fait défaut. La question concernant la protection juridique des brevets pour les inventions mises en rouvre par ordinateur restera aussi dans le futur sans réponse, étant donné que le Parlement européen a rejeté une telle proposition de directive en juillet 2005. Ceci est regrettable, parce que la proposition de directive prévoyait explicitement un droit de décompilation. La Commission européenne projette, cependant, de réexaminer les dispositions de décompilation relatives au droit d'auteur. Dans ce contexte, il devrait notamment être examiné si les dispositions de décompilation de l'article 6 de la directive des programmes d'ordinateur sont satisfaisantes afin de garantir une (certaine) interopérabilité. 5. Un réexamen de la directive concernant la protection juridique des programmes d'ordinateur pourrait aussi servir à clarifier l'existence et l'étendue de la protection d'interfaces. L'article 1, paragraphe 2, 2ième phrase se réfère dans ce contexte uniquement à un principe reconnu en droit international du droit d'auteur, dénommé «dichotomie d'idée/d'expression» : seul l'expression individuelle est protégée, mais pas l'idée en tant que telle. La rédaction de l'article devrait ainsi préciser qu'une spécification d'une interface constitue toujours une idée, qui ne peut pas être protégée, alors que l'implémentation de l'interface dans un programme d'ordinateur représente son expression et devrait ainsi bénéficier d'une protection selon le droit d'auteur. Or, dans la plupart des cas, la spécification d'une interface est suffisante pour rendre interopérables différents programmes d'ordinateur. 6. La Commission dans sa décision Microsoft a pourtant supposé que les interfaces recherchées par les concurrents de Microsoft pouvaient être protégées par des droits de propriété intellectuelle. En effet, le seul moyen à disposition pour ceux qui veulent rendre interopérables leur programme d'ordinateur et avec celui d'une entreprise dominante est le recours à l'article 82 CE. Ici, la question qui se pose est celle de savoir si le refus de fournir des interfaces constitue un abus d'une position dominante et donc mène à l'octroi d'une licence obligatoire. 7. Dans le contexte des licences obligatoires selon l'article 82 CE, il est courant d'invoquer la relation de conflit entre la propriété intellectuelle et le droit de la concurrence. Or, l'étude démontre que ces deux institutions de droit poursuivent le même but, à savoir l'encouragement au bien-être des consommateurs en stimulant l'innovation. Les objectifs convergent notamment si on définit la concurrence plutôt en tant que concept dynamique. Par conséquent, des restrictions temporaires à la concurrence peuvent être acceptées, si ceci mène à la création de la concurrence à long terme. Pourtant, des conflits potentiels persistent, étant donné qu'on ne peut pas argumenter que chaque restriction à la concurrence effectuée par le titulaire d'un droit de propriété intellectuelle mène à l'incitation de l'innovation à long terme. 8. En réfutant ce dernier argument, l'étude démontre que les droits de propriété intellectuelle ne peuvent pas être généralement exemptés de l'application du droit de la concurrence. Notamment, selon l'état actuel de la jurisprudence, il ne peut être soutenu qu'il existe un noyau dur spécifique du droit de la propriété intellectuelle, qui ne devrait pas être affecté par le droit de la concurrence. L'ordonnance d'une licence obligatoire peut être justifiée sur la base de l'article 82 CE, dans la mesure où la balance d'intérêts démontre un effet positif au bien-être des consommateurs résultant d'une telle licence. En même temps, les droits individuels du propriétaire d'un droit de propriété intellectuelle sont à respecter, surtout la liberté contractuelle et la protection de la propriété. 9. Le droit de la liberté contractuelle et le droit de la propriété sont atteints, si le propriétaire d'un droit, de nature matérielle ou immatérielle, n'a exercé son droit de propriété que pour lui-même, exclusivement, sans jamais avoir démontré la volonté de s'acquitter de ses droits. C'est donc surtout pour protéger ces deux principes de droit que la présente étude fait une distinction majeure entre le refus de contracter et la rupture d'une relation contractuelle. 10. Le premier cas est traité de manière détaillée sous le chapitre de la doctrine des facilités essentielles (EFD). Selon la position prise ici, cette constellation est caractérisée par l'obligation du propriétaire de contracter et ainsi d'établir des relations d'affaires avec ses concurrents. Or, un principe selon lequel les entreprises en position dominante sont obligées d'encourager la concurrence, n'existe pas en droit communautaire. Il est toutefois nécessaire de pouvoir imposer une telle obligation, notamment dans les cas où la concurrence sur un marché ne peut être mise en oeuvre à long terme par un autre moyen et où cette ouverture du marché n'entraîne pas d'obstacles à l'innovation. 11. La constellation particulière des facilités essentielles exige néanmoins un contrôle plus prudent que dans les cas constituant une rupture de relation d'affaires. Cette exigence a été respectée sur base des conditions que l'arrêt Bronner a établit concernant l'essentialité d'une facilité. Même si l'établissement en question remplit toutes les conditions afin d'être qualifié d'essentiel, l'ordonnance d'un accès obligé doit encore passer l'examen d'une balance d'intérêts. Celle-ci mène encore plus rarement à l'octroi d'une licence dans les cas où la facilité est protégée par un droit de propriété intellectuelle. Des exceptions à cette règle existent si le droit de la propriété intellectuelle n'a pas été obtenu par des moyens basés sur le mérite ou si la fonction d'incitation à l'innovation est en doute. 12. L'affaire IMS Health présente un tel cas exceptionnel. La structure recherchée par les concurrents de IMS remplissait, au moment de l'examen de l'affaire par la Commission européenne, tous les critères d'un standard de facto. En outre, au moment du développement de la structure, celle-ci ne bénéficiait pas d'une protection de droit immatérielle. Une telle protection ne lui a été accordée que depuis la transposition de la directive concernant la protection juridique des bases de données en droit d'auteur allemand. Par conséquent, IMS ne pouvait avoir entrepris des investissements dans la construction de la structure, afin de profiter ultérieurement de la protection du droit d'auteur. Ceci affaiblit la présomption selon laquelle l'utilisation exclusive du droit aurait dû être préservée afin de ne pas faire obstacle à l'innovation. 13. Le cas européen de Microsoft se distingue de cette constellation. Les conditions qui ont mené à la décision de la Commission européenne quant à l'attribution d'interopérabilité et ainsi à une licence obligatoire d'interfaces, ont été présenté de manière détaillée dans cette étude. Elles fournissent les meilleures preuves que les «circonstances exceptionnelles », qui ont été déterminantes dans l'affaire Magill de la Cour de justice, à savoir «l'empêchement de la création d'un nouveau produit », le «manque de justification objective » et «l'empêchement de toute concurrence sur un marché en aval distinct », ne peuvent constituer une énumération exhaustive pour l'ordonnance d'une licence obligatoire. 14. En effet, dans l'affaire Microsoft, l'intersection progressive d'interopérabilité entre les systèmes d'exploitation étrangers à Microsoft et des systèmes d'exploitation de Microsoft n'a pas empêché la création de nouveaux produits. Le marché en question, celui des systèmes d'exploitation pour serveur de groupe de travail, avait été créé par l'entreprise Novell. Par conséquent, quand Microsoft a accédé à ce marché, d'autres entreprises en situation d'offre s'y trouvaient déjà avec leurs produits. Il s'en suit que, en 'exigeant de Microsoft des interfaces correspondantes, il s'agissait d'assurer l'interopérabilité avec les produits de Microsoft, et surtout avec l'omniprésent système d'exploitation pour ordinateur PC, afin de maintenir des produits déjà existants sur le marché, et notamment des produits «pionniers »qui avaient pris le risque d'exploiter le marché des systèmes d'exploitation pour serveur de groupe de travail. 15. Une autre circonstance exceptionnelle que celle d'un nouveau produit empêché donne l'impulsion à la thèse qu'une intersection progressive aux interfaces de Microsoft constitue un abus d'une position dominante selon l'article 82 CE : celle du transfert du pouvoir de marché. L'intégration verticale d'une entreprise en position dominante sur un marché qui n'a jusqu'à ce jour été que fourni par celle-ci, et qui rompt des relations contractuelles avec des entreprises agissant sur ce marché, afin d'évincer de la concurrence, constitue un cas de type connu de l'abus, reconnue pour la première fois dans l'arrêt Commercial Solvents de la CJCE: L'entreprise en position dominante utilise son pouvoir sur un marché initial et stratégiquement important et se sert ainsi des avantages, qui ne peuvent être conciliés avec le concept de concurrence par le mérite. 16. Il doit être de même si le bien en question bénéficie d'un droit immatériel, et qu'il s'agit ainsi d'un arrêt d'une licence. En effet, les fonctions, en principe supposées, d'incitation et de mérite, perdent de leur importance si le bien en question a déjà fait objet d'une licence: Il ne peut pas alors être argumenté que le propriétaire d'un droit immatériel doit l'utiliser exclusivement lui-même, afin de profiter des fruits de son mérite. Cet argument particulier de la prise en compte de l'effet d'incitation et de mérite perd d'autant plus de sa pertinence, si l'entreprise en cause ne fournit pas sur le marché dérivé une innovation, mais ne sert juste qu'à vendre un produit déjà préexistant. 17. Dans le domaine de licence de propriété intellectuelle obligatoire selon l'article 82 CE, les juridictions européennes n'ont jusqu'à présent uniquement eu à décider sur des constellations de cas, dans lesquelles le droit n'avait pas été l'objet d'une licence antérieure. Avec le cas Microsoft, le Tribunal de Première Instance a maintenant la possibilité de décider d'une distinction importante à faire en droit de la concurrence entre, d'une part, les cas dans lesquels un droit de propriété intellectuelle n'a pas encore été l'objet d'une licence et de l'autre, ceux dans lesquels il s'agit d'une rupture de licence.
Resumo:
SUMMARY : The evolution of animal societies, where some individuals forego their own reproductive opportunities to help others to reproduce, poses an evolutionary paradox that can be traced back to Darwin. Altruism may evolve through kin selection when the donor and recipient of altruistic acts are related to each other. In social insects, workers are generally highly related to the brood they rear when colonies are headed by a single queen. Yet some ants have an extraordinary social organization, called unicoloniality, whereby individuals from separate nests mix freely to form large supercolonies, which in some cases extend over hundreds of km. These supercolonies are characterised by a high number of queens (polygyny) and an absence of clear colony boundaries. This type of social organization represents an evolutionary paradox because relatedness between nestmates is effectively zero. In such conditions, kin selection cannot account for the evolution of reproductive altruism. Moreover, unicoloniality is thought to be unstable over time, because workers that can no longer aid close relatives may evolve more selfish strategies. The Argentine ant (Linepithema humile) is a highly invasive species listed among the hundred world's worst invaders by the UICN. Native from South America, L. humile has been accidentally introduced throughout the world. Native populations have been described as noninvasive with a family-based organization. In contrast, within its introduction range, they form unicolonial supercolonies that contain numerous nests without intraspecific aggression. The development of such unicolonial populations has been explained as a direct consequence of the ant's introduction into a new habitat, favouring a transition from family-based to open colonies. To determine if the social structure of the Argentine ant is fundamentally different between the native and the introduced range, we studied genetically and behaviourally native and introduced populations of L. humile over different geographic scales. Our results clearly indicated that there are no fundamental differences in the social organisation of the Argentine ant between the two ranges. Our investigations revealed that, contrary to previous claims, native populations have a unicolonial social organisation very similar to that observed in the introduced range. Consequently, the unicolonial social structure of the Argentine ant does not stem from a shift in social organization associated with introduction into new habitats but evolved in the native range and is likely a stable, evolutionarily ancient adaptation to the local environment. Our study on native populations of L. humile also gave important insight in the comprehension of the evolution of unicoloniality in the Argentine ant. Native supercolonies are relatively small compared to introduced ones and may co-habit in a same population. These supercolonies are genetically highly differentiated leading to a significant relatedness among nestmate workers when the different supercolonies of a population are taken as a reference population. This provides the necessary conditions for loin selection to operate. Furthermore, we examined a native population over time, which revealed a high supercolony extinction rate. If more competitive supercolonies are more likely to survive or replace other supercolonies, a subtle dynamical process between the spread of selfish traits within supercolony and the selective elimination of supercolonies with such traits may allow a stable equilibrium and the persistence of unicoloniality over time. Finally, a worldwide study of the Argentine ant showed that the introduced supercolonies originate from numerous independent introduction events. In conclusion, the success of the Argentine ant does not stem from a shift in social organization associated with its introduction into new habitats, but is most probably explained by the intrinsic characteristics developed in its native range. RESUME : L'altruisme de reproduction où certains individus renoncent à leur propre reproduction pour aider d'autres individus à se reproduire constitue l'un des plus grand paradoxe de l'évolution. En effet, comment expliquer l'évolution de comportements qui tendent à augmenter les chances de survie et le succès reproductif d'autres individus, alors que ces actes diminuent l'aptitude de leurs auteurs ? La théorie de la sélection de parentèle permet de résoudre ce problème. Cette théorie stipule qu'en aidant de proches parents à se reproduire, les individus peuvent promouvoir indirectement la transmission de copies de leurs propres gènes à la génération suivante. Chez les insectes sociaux, l'altruisme des ouvrières s'explique par la théorie de sélection de parentèle lorsque les colonies sont monogynes (constituées d'une seule reine) puisque les ouvrières sont fortement apparentées aux couvains dont elles s'occupent. Par contre, les espèces dites unicoloniales, dont les colonies forment des réseaux de nids appelés supercolonies, représentent toujours un paradoxe pour les théories de l'évolution puisque l'apparentement entre les différents individus d'un nid est nulle. De plus, l'unicolonialité ne devrait pas être stable sur le long terme parce que les ouvrières qui ne s'occupent plus de leur apparentés devraient développer des stratégies plus égoïstes au cours du temps. La fourmi d'Argentine (Linepithema humile) est une espèce invasive ayant un impact considérable sur son environnement. Originaire d'Amérique du Sud, elle a été introduite dans pratiquement toutes les régions du monde dont le climat est de type méditerranéen. Son incroyable succès invasif s'explique par sa structure sociale unicoloniale observée dans chacun des pays où elle a été introduite. Par contre, les rares études effectuées en Argentine ont suggéré que la fourmi d'Argentine n'était pas unicoloniale dans son aire native. L'unicolonialité chez la fourmi d'Argentine était donc considéré comme une conséquence de son introduction dans de nouveaux environnements. Durant cette thèse, nous avons vérifié si la structure sociale de cette espèce différait fondamentalement entre l'aire native et introduite. Pour cela, nous avons étudié, à différentes échelles géographiques, des populations introduites et argentines avec une approche génétique et comportementale. L'ensemble de nos résultats montrent que les différences entre les deux structure sociales ne sont pas aussi importantes que ce que l'on imaginait. Les populations natives sont aussi constituées de réseaux de nids coopérants. La taille de ses supercolonies est toutefois bien moins importante en Argentine et il n'est pas rare de trouver plusieurs supercolonies cohabitantes dans une même population. Nous avons démontré que ces réseaux de nids étaient constitués d'individus qui sont plus apparentés entre eux qu'ils ne le sont avec les individus d'autres supercolonies, ainsi l'unicolonialité dans son aire d'origine ne représente pas un réel paradoxe pour les théories de l'évolution. Finalement nous avons étudié la même population en Argentine à six ans d'intervalle et avons constaté que les supercolonies avaient un taux de survie très faible ce qui pourrait expliquer la stabilité de l'unicolonialité au cours du temps. Si les supercolonies les plus compétitives survivent mieux que les supercolonies dans lesquelles apparaissent des traits égoïstes, on devrait alors observer une dynamique entre l'apparition de traits égoïstes et l'élimination des supercolonies dans lesquelles ces traits égoïstes évolueraient. Finalement, une étude mondiale nous a montré que les supercolonies étaient originaires de nombreux événements d'introductions indépendants. En conclusion, le succès invasif de la fourmi d'Argentine n'est donc pas dû à un changement de comportement associé à son introduction mais est lié aux caractéristiques qu'elle a développées en Argentine.
Resumo:
Rapport de synthèse Cette thèse consiste en trois essais sur les stratégies optimales de dividendes. Chaque essai correspond à un chapitre. Les deux premiers essais ont été écrits en collaboration avec les Professeurs Hans Ulrich Gerber et Elias S. W. Shiu et ils ont été publiés; voir Gerber et al. (2006b) ainsi que Gerber et al. (2008). Le troisième essai a été écrit en collaboration avec le Professeur Hans Ulrich Gerber. Le problème des stratégies optimales de dividendes remonte à de Finetti (1957). Il se pose comme suit: considérant le surplus d'une société, déterminer la stratégie optimale de distribution des dividendes. Le critère utilisé consiste à maximiser la somme des dividendes escomptés versés aux actionnaires jusqu'à la ruine2 de la société. Depuis de Finetti (1957), le problème a pris plusieurs formes et a été résolu pour différents modèles. Dans le modèle classique de théorie de la ruine, le problème a été résolu par Gerber (1969) et plus récemment, en utilisant une autre approche, par Azcue and Muler (2005) ou Schmidli (2008). Dans le modèle classique, il y a un flux continu et constant d'entrées d'argent. Quant aux sorties d'argent, elles sont aléatoires. Elles suivent un processus à sauts, à savoir un processus de Poisson composé. Un exemple qui correspond bien à un tel modèle est la valeur du surplus d'une compagnie d'assurance pour lequel les entrées et les sorties sont respectivement les primes et les sinistres. Le premier graphique de la Figure 1 en illustre un exemple. Dans cette thèse, seules les stratégies de barrière sont considérées, c'est-à-dire quand le surplus dépasse le niveau b de la barrière, l'excédent est distribué aux actionnaires comme dividendes. Le deuxième graphique de la Figure 1 montre le même exemple du surplus quand une barrière de niveau b est introduite, et le troisième graphique de cette figure montre, quand à lui, les dividendes cumulés. Chapitre l: "Maximizing dividends without bankruptcy" Dans ce premier essai, les barrières optimales sont calculées pour différentes distributions du montant des sinistres selon deux critères: I) La barrière optimale est calculée en utilisant le critère usuel qui consiste à maximiser l'espérance des dividendes escomptés jusqu'à la ruine. II) La barrière optimale est calculée en utilisant le second critère qui consiste, quant à lui, à maximiser l'espérance de la différence entre les dividendes escomptés jusqu'à la ruine et le déficit au moment de la ruine. Cet essai est inspiré par Dickson and Waters (2004), dont l'idée est de faire supporter aux actionnaires le déficit au moment de la ruine. Ceci est d'autant plus vrai dans le cas d'une compagnie d'assurance dont la ruine doit être évitée. Dans l'exemple de la Figure 1, le déficit au moment de la ruine est noté R. Des exemples numériques nous permettent de comparer le niveau des barrières optimales dans les situations I et II. Cette idée, d'ajouter une pénalité au moment de la ruine, a été généralisée dans Gerber et al. (2006a). Chapitre 2: "Methods for estimating the optimal dividend barrier and the probability of ruin" Dans ce second essai, du fait qu'en pratique on n'a jamais toute l'information nécessaire sur la distribution du montant des sinistres, on suppose que seuls les premiers moments de cette fonction sont connus. Cet essai développe et examine des méthodes qui permettent d'approximer, dans cette situation, le niveau de la barrière optimale, selon le critère usuel (cas I ci-dessus). Les approximations "de Vylder" et "diffusion" sont expliquées et examinées: Certaines de ces approximations utilisent deux, trois ou quatre des premiers moments. Des exemples numériques nous permettent de comparer les approximations du niveau de la barrière optimale, non seulement avec les valeurs exactes mais également entre elles. Chapitre 3: "Optimal dividends with incomplete information" Dans ce troisième et dernier essai, on s'intéresse à nouveau aux méthodes d'approximation du niveau de la barrière optimale quand seuls les premiers moments de la distribution du montant des sauts sont connus. Cette fois, on considère le modèle dual. Comme pour le modèle classique, dans un sens il y a un flux continu et dans l'autre un processus à sauts. A l'inverse du modèle classique, les gains suivent un processus de Poisson composé et les pertes sont constantes et continues; voir la Figure 2. Un tel modèle conviendrait pour une caisse de pension ou une société qui se spécialise dans les découvertes ou inventions. Ainsi, tant les approximations "de Vylder" et "diffusion" que les nouvelles approximations "gamma" et "gamma process" sont expliquées et analysées. Ces nouvelles approximations semblent donner de meilleurs résultats dans certains cas.
Resumo:
Rapport de synthèse : Description : ce travail de thèse évalue de façon systématique les études sur l'association entre les dysfonctions thyroïdiennes infracliniques d'une part, et la maladie coronarienne et la mortalité d'autre part. Les hypothyroïdies infracliniques affectent environ 4-5% de la population adulte alors que la prévalence de l'hyperthyroïdie infraclinique est inférieure (environ 1%). L'éventuelle association entre elles pourrait justifier un dépistage systématique des dysfonctions thyroïdiennes infracliniques. Les précédentes études sur l'association entre l'hypothyroïdie infraclinique et la maladie coronarienne ont donné des résultats conflictuels. La parution de nouveaux articles récents basés sur de grandes cohortes prospectives nous a permis d'effectuer une méta-analyse basée uniquement sur des études de cohorte prospectives, augmentant ainsi la validité des résultats. Résultats: 10 des 12 études identifiées pour notre revue systématique sont basées sur des cohortes issues de la population générale («population-based »), regroupant en tout 14 449 participants. Ces 10 études examinent toutes le risque associé à l'hypothyroïdie infraclinique (avec 2134 événements coronariens et 2822 décès), alors que 5 étudient également le risque associé à l'hyperthyroïdie infraclinique (avec 1392 événements coronariens et 1993 décès). En utilisant un modèle statistique de type random-effect model, le risque relatif [RR] lié à l'hypothyroïdie infraclinique pour la maladie coronarienne est de 1.20 (intervalle de confiance [IC] de 95%, 0.97 à 1.49). Le risque diminue lorsque l'on regroupe uniquement les études de meilleure qualité (RR compris entre 1.02 et 1.08). Il est plus élevé parmi les participants de moins de 65 ans (RR, 1.51 [IC, 1.09 à 2.09] et 1.05 [IC, 0.90 à 1.22] pour les études dont l'âge moyen des participants est >_ 65 ans). Le RR de la mortalité cardiovasculaire est de 1.18 (IC, 0.98 à 1.42) et de 1.12 (IC, 0.99 à 1.26) pour la mortalité totale. En cas d'hyperthyroïdie infraclinique, les RR de la maladie coronarienne sont de 1.21 (IC, 0.88 à 1.68), de 1.19 (IC, 0.81 à 1.76) pour la mortalité cardiovasculaire, et de 1.12 (IC, 0.89 à 1.42) pour la mortalité totale. Conclusions et perspectives : nos résultats montrent que les dysfonctions thyroïdiennes infracliniques (hypothyroïdie et hyperthyroïdie infracliniques) représentent un facteur de risque modifiable, bien que modéré, de la maladie coronarienne et de la mortalité. L'efficacité du traitement de ces dysfonctions thyroïdiennes infracliniques doit encore être prouvée du point de vue cardiovasculaire et de la mortalité. Il est nécessaire d'effectuer des études contrôlées contre placebo avec le risque cardiovasculaire et la mortalité comme critères d'efficacité, avant de pouvoir proposer des recommandations sur le dépistage des ces dysfonctions thyroïdiennes dans la population adulte.
Resumo:
Difficile de concevoir une évaluation psychologique indépendante des critères culturels ou d'en tenir compte de manière adéquate. C'est pourquoi la globalisation des économies et les mouvements migratoires impliquent de repenser l'évaluation psychologique dans le domaine du conseil et de l'orientation d'un point de vue théorique et pratique. Cette nouvelle situation pose des défis inédits
Resumo:
L'asphyxie positionnelle (AP) est une entité fatale consistant en une entrave mécanique des mouvements respiratoires, due à la position du corps. Les conséquences en sont une hypoventilation alvéolaire importante et, le cas échéant, une hyperexcitabilité cardiaque. Cette dernière se produit en raison d'une acidose respiratoire associée à une libération massive de catécholamines lorsqu'un individu est entravé et soumis à une contrainte physique. Ainsi, ce syndrome, qui peut se produire lors de diverses circonstances, est surtout observé lors de contraintes physiques et en association avec un Excited delirium (ED). Le diagnostic de l'AP se base essentiellement sur trois critères : une position corporelle entravant l'échange normal de gaz, l'impossibilité de se libérer de cette position et l'exclusion d'autres causes possibles de décès.
Resumo:
Les hypertensions pulmonaires post-capillaires sont définies par une pression artérielle moyenne (PAPm) ≥ 25mmHg et une pression pulmonaire d'occlusion (PAPO) > 15mmHg. Une augmentation de la PAP peut être soit passive, transmission rétrograde de l'augmentation de la pression du coeur gauche ( gradient transpulmonaire GTP ≤ 12mmHg), soit active, élévation hors de proportion de la PAP due à une augmentation du tonus vasculaire et un remodelage vasculaire (GTP > 12mmHg). Le gradient entre la pression artérielle diastolique (PAPd) et la PAPO, qui est normal (≤ 5mmHg) dans les HP post-capillaires, n'est actuellement plus utilisé dans le diagnostic et l'évaluation des HP dans la dernière classification de 2008 (Dana Point 2008). But : - analyse des données cliniques, échocardiographiques et hémodynamiques des HP post-capillaires des patients référés dans un centre de référence d'HP - évaluer le rôle du gradient PAPd-PAPO dans la prise en charge des HP Méthode : Nous avons analysé de manière rétrospective les données cliniques, hémodynamiques et échocardiographiques des patients qui ont été diagnostiqué pour une HP au moyen d'un cathétérisme cardiaque entre janvier 2009 et juin 2011 au centre de référence d'HP du Centre Hospitalier Universitaire Vaudois (CHUV). Résultats: - 40% des patients ont les critères pour une HP post-capillaire - 33% des patients ont une HP qui répond à la définition d'HP "hors de propotion" avec un GTP > 12mmHg - 74% des patients avec HP post-capillaire ont une cardiopathie gauche associée avec des signes échocardiographiques de dysfonction diastolique - Sur les 27 patients avec une HP du groupe 2, 44% ont plusieurs facteurs de risque (FR) pour une HP - 75% de ces patients avec une cardiopathie gauche ainsi qu'un autre FR pour une HP ont un gradient PAPd-PAPO > 5 mmHg versus 8% de ceux qui n'ont pas d'autre FR (p-value 0.0075) Conclusion : Les HP post-capillaires sont fréquentes chez les patients adressés au centre de référence d'HP pour une suspicion d'HP. Dans notre cohorte 85% des patients avec HP post-capillaire ont une HP hors de proportion dont 44% ont un FR non cardiaque susceptible d'être à l'origine de l'HP. Le gradient PAPd-PAPO semble être un meilleur facteur discriminant que le GTP pour la caractérisation et la classification des HP.
Resumo:
Version abregée L'ischémie cérébrale est la troisième cause de mort dans les pays développés, et la maladie responsable des plus sérieux handicaps neurologiques. La compréhension des bases moléculaires et anatomiques de la récupération fonctionnelle après l'ischémie cérébrale est donc extrêmement importante et représente un domaine d'intérêt crucial pour la recherche fondamentale et clinique. Durant les deux dernières décennies, les chercheurs ont tenté de combattre les effets nocifs de l'ischémie cérébrale à l'aide de substances exogènes qui, bien que testées avec succès dans le domaine expérimental, ont montré un effet contradictoire dans l'application clinique. Une approche différente mais complémentaire est de stimuler des mécanismes intrinsèques de neuroprotection en utilisant le «modèle de préconditionnement» : une brève insulte protège contre des épisodes d'ischémie plus sévères à travers la stimulation de voies de signalisation endogènes qui augmentent la résistance à l'ischémie. Cette approche peut offrir des éléments importants pour clarifier les mécanismes endogènes de neuroprotection et fournir de nouvelles stratégies pour rendre les neurones et la glie plus résistants à l'attaque ischémique cérébrale. Dans un premier temps, nous avons donc étudié les mécanismes de neuroprotection intrinsèques stimulés par la thrombine, un neuroprotecteur «préconditionnant» dont on a montré, à l'aide de modèles expérimentaux in vitro et in vivo, qu'il réduit la mort neuronale. En appliquant une technique de microchirurgie pour induire une ischémie cérébrale transitoire chez la souris, nous avons montré que la thrombine peut stimuler les voies de signalisation intracellulaire médiées par MAPK et JNK par une approche moléculaire et l'analyse in vivo d'un inhibiteur spécifique de JNK (L JNK) .Nous avons également étudié l'impact de la thrombine sur la récupération fonctionnelle après une attaque et avons pu démontrer que ces mécanismes moléculaires peuvent améliorer la récupération motrice. La deuxième partie de cette étude des mécanismes de récupération après ischémie cérébrale est basée sur l'investigation des bases anatomiques de la plasticité des connections cérébrales, soit dans le modèle animal d'ischémie transitoire, soit chez l'homme. Selon des résultats précédemment publiés par divers groupes ,nous savons que des mécanismes de plasticité aboutissant à des degrés divers de récupération fonctionnelle sont mis enjeu après une lésion ischémique. Le résultat de cette réorganisation est une nouvelle architecture fonctionnelle et structurelle, qui varie individuellement selon l'anatomie de la lésion, l'âge du sujet et la chronicité de la lésion. Le succès de toute intervention thérapeutique dépendra donc de son interaction avec la nouvelle architecture anatomique. Pour cette raison, nous avons appliqué deux techniques de diffusion en résonance magnétique qui permettent de détecter les changements de microstructure cérébrale et de connexions anatomiques suite à une attaque : IRM par tenseur de diffusion (DT-IR1V) et IRM par spectre de diffusion (DSIRM). Grâce à la DT-IRM hautement sophistiquée, nous avons pu effectuer une étude de follow-up à long terme chez des souris ayant subi une ischémie cérébrale transitoire, qui a mis en évidence que les changements microstructurels dans l'infarctus ainsi que la modification des voies anatomiques sont corrélés à la récupération fonctionnelle. De plus, nous avons observé une réorganisation axonale dans des aires où l'on détecte une augmentation d'expression d'une protéine de plasticité exprimée dans le cône de croissance des axones (GAP-43). En appliquant la même technique, nous avons également effectué deux études, rétrospective et prospective, qui ont montré comment des paramètres obtenus avec DT-IRM peuvent monitorer la rapidité de récupération et mettre en évidence un changement structurel dans les voies impliquées dans les manifestations cliniques. Dans la dernière partie de ce travail, nous avons décrit la manière dont la DS-IRM peut être appliquée dans le domaine expérimental et clinique pour étudier la plasticité cérébrale après ischémie. Abstract Ischemic stroke is the third leading cause of death in developed countries and the disease responsible for the most serious long-term neurological disability. Understanding molecular and anatomical basis of stroke recovery is, therefore, extremely important and represents a major field of interest for basic and clinical research. Over the past 2 decades, much attention has focused on counteracting noxious effect of the ischemic insult with exogenous substances (oxygen radical scavengers, AMPA and NMDA receptor antagonists, MMP inhibitors etc) which were successfully tested in the experimental field -but which turned out to have controversial effects in clinical trials. A different but complementary approach to address ischemia pathophysiology and treatment options is to stimulate and investigate intrinsic mechanisms of neuroprotection using the "preconditioning effect": applying a brief insult protects against subsequent prolonged and detrimental ischemic episodes, by up-regulating powerful endogenous pathways that increase resistance to injury. We believe that this approach might offer an important insight into the molecular mechanisms responsible for endogenous neuroprotection. In addition, results from preconditioning model experiment may provide new strategies for making brain cells "naturally" more resistant to ischemic injury and accelerate their rate of functional recovery. In the first part of this work, we investigated down-stream mechanisms of neuroprotection induced by thrombin, a well known neuroprotectant which has been demonstrated to reduce stroke-induced cell death in vitro and in vivo experimental models. Using microsurgery to induce transient brain ischemia in mice, we showed that thrombin can stimulate both MAPK and JNK intracellular pathways through a molecular biology approach and an in vivo analysis of a specific kinase inhibitor (L JNK1). We also studied thrombin's impact on functional recovery demonstrating that these molecular mechanisms could enhance post-stroke motor outcome. The second part of this study is based on investigating the anatomical basis underlying connectivity remodeling, leading to functional improvement after stroke. To do this, we used both a mouse model of experimental ischemia and human subjects with stroke. It is known from previous data published in literature, that the brain adapts to damage in a way that attempts to preserve motor function. The result of this reorganization is a new functional and structural architecture, which will vary from patient to patient depending on the anatomy of the damage, the biological age of the patient and the chronicity of the lesion. The success of any given therapeutic intervention will depend on how well it interacts with this new architecture. For this reason, we applied diffusion magnetic resonance techniques able to detect micro-structural and connectivity changes following an ischemic lesion: diffusion tensor MRI (DT-MRI) and diffusion spectrum MRI (DS-MRI). Using DT-MRI, we performed along-term follow up study of stroke mice which showed how diffusion changes in the stroke region and fiber tract remodeling is correlating with stroke recovery. In addition, axonal reorganization is shown in areas of increased plasticity related protein expression (GAP 43, growth axonal cone related protein). Applying the same technique, we then performed a retrospective and a prospective study in humans demonstrating how specific DTI parameters could help to monitor the speed of recovery and show longitudinal changes in damaged tracts involved in clinical symptoms. Finally, in the last part of this study we showed how DS-MRI could be applied both to experimental and human stroke and which perspectives it can open to further investigate post stroke plasticity.
Resumo:
Introduction : La prise en charge des patients critiques nécessite dans la majorité des situations l'obtention rapide d'un accès vasculaire, afin d'administrer des médicaments, des solutés de remplissage, ou des produits sanguins. La mise en place d'un accès vasculaire peut s'avérer difficile chez ces patients. En cas d'échec de pose d'une voie veineuse périphérique, des abords vasculaires alternatifs existent. Il s'agit essentiellement de la pose d'une voie veineuse centrale, la réalisation d'une dénudation veineuse, ou la pose d'une voie intra-osseuse. Depuis le développement de dispositifs d'insertion « semi-automatique » à la fin des années 90, la voie intra-osseuse, traditionnellement réservée aux cas pédiatriques, est de plus en plus fréquemment utilisée chez les patients adultes. Le Service des Urgences du CHUV a introduit en 2009 les dispositifs d'insertion d'aiguilles intra-osseuses de type EZ-IO® (perceuse électrique), en salle de réanimation des urgences vitales (déchoquage), ainsi qu'au sein du secteur préhospitalier pour les interventions du SMUR de Lausanne et de l'hélicoptère REGA de la base de Lausanne. Par cette étude, nous voulions mettre en évidence les aspects épidémiologiques des patients ayant dû être perfusés par cet abord dans un contexte préhospitalier, ainsi que les circonstances cliniques ayant justifié un tel usage, le taux de succès, les éventuelles complications, les médicaments perfusés et la mortalité des patients ayant bénéficié de ce dispositif. Méthode: Chaque patient ayant bénéficié de la mise en place d'une voie intra-osseuse par EZ-IO® du 1er janvier 2009 au 31 décembre 2011 a été inclus. Les données récoltées étaient l'âge, le sexe, l'indication à la mise en place de l'intra-osseuse, la localisation, le taux de succès, les médicaments et fluides administrés, les complications, la mortalité à 48 heures et à la sortie de l'hôpital. Tous les articles mentionnant l'utilisation de ΙΈΖ-ΙΟ® dans des situations cliniques ont également été analysés par une revue de littérature structurée exhaustive, afin de comparer nos résultats avec les données de la littérature. Résultats : Cinquante-huit patients, représentant 60 intra-osseuses EZ-IO®, ont été inclus. Leur âge moyen (47 ans), le taux de succès (90%), les indications, la localisation de l'aiguille (98% au niveau du tibia proximal) et le taux de complications (0%) correspondent aux valeurs trouvées dans la littérature. Le taux de survie de nos patients est de 38% à 48 heures et de 29% à la sortie de l'hôpital. De nombreux médicaments ou solutés de perfusion ont été administrés; l'adrénaline restant le médicament le plus fréquemment administré par cette voie. Dans 7 cas, les patients ont bénéficié d'une induction d'anesthésie par voie intra-osseuse. La revue de littérature a permis de compiler 30 études distinctes, représentant un total de 1603 accès vasculaires de type EZ-IO®. Conclusion : La voie intra-osseuse s'avère fiable et rapide pour obtenir un accès vasculaire, avec un taux de complications très faible et permet l'administration d'un grand nombre de substances. D'autres études sont nécessaires pour évaluer l'impact de la voie intra osseuse, notamment en termes de mortalité, de complications tardives, ainsi que d'analyse coût/bénéfice de ce matériel.
Resumo:
Introduction: L'hypertension pulmonaire est une complication rare de la sarcoïdose. Elle se rencontre surtout lors d'atteinte pulmonaire associée, particulièrement lorsque celle-ci est avancée. Objectif: Étudier l'épidémiologie et l'évolution clinique des patients souffrant d'hypertension pulmonaire et de sarcoïdose (SAPH) en Suisse. Méthode: Le registre suisse de l'hypertension pulmonaire a été analysé rétrospectivement pour identifier les cas SAPH de 2000 à 2011. Les paramètres cliniques, tels que le sexe, l'âge, le stade radiographique pulmonaire et l'hémodynamique sont étudiés lors de l'inscription des patients dans le registre. La classe fonctionnelle NYHA, la capacité à l'exercice (TM6M), les traitements introduits (oxygénothérapie, traitements spécifiques pour la sarcoïdose et traitements spécifiques pour l'hypertension pulmonaire), la survie et le nombre de transplantations pulmonaires effectués sont étudiés lors du suivi. Résultats: Parmi plus de 977 patients inscrits, 22 répondent aux critères d'inclusion pour la SAPH. La majorité de patients est de sexe féminin et l'âge moyen est de 59,5 +/-29,7. Le stade pulmonaire le plus souvent rencontré est de degré 4. La mPAP au diagnostic est de 44 ± 12.6 mmHg et la saturation veineuse d'oxygène est de 60%. La plupart des patients présentent une classe NYHA de 3 et le TM6M est de 368.6 ± 124.2 m à l'inclusion dans le registre. La durée moyenne du suivi des patients dans le registre est de 19.4 mois (0-57). La médiane est de 14 mois. La classe fonctionnelle NYHA et les moyennes des mètres parcourus ne montrent pas de changements significatifs lors du suivi. Au début de l'étude, comme à la fin, moins de la moitié des patients sont sous oxygénothérapie ; le traitement le plus utilisé pour l'hypertension pulmonaire est la classe des antagonistes de l'endothéline et pour la sarcoïdose les corticostéroïdes. La survie à un an est de 65 % et de 55 % à 3 ans. Pendant la période d'observation 5 patients nécessitent une transplantation pulmonaire, dont 2 sont décédés. La démarche médicamenteuse varie au cours du temps : la tendance récente est de donner plus de médicaments pour l'hypertension pulmonaire et la sarcoïdose et de favoriser les associations. Conclusion: La SAPH est une maladie rare ou tout au moins rarement diagnostiquée avec un sombre pronostic. Le degré d'hypertension est de modéré à sévère avec une limitation à l'effort importante. En cas de symptômes suggestifs chez un patient souffrant de sarcoïdose, un dépistage échocardiographique systématique devrait être proposé.
Resumo:
1 Abstract Sleep is a vital necessity, yet its basic physiological function is still unknown, despite numerous studies both in healthy humans and animal models. The study of patients with sleep disorders may help uncover major biological pathways in sleep regulation and thus shed light on the actual function of sleep. Narcolepsy is a well defined but rare sleep disorder characterized by excessive daytime sleepiness and cataplexy, thought to be caused by a combination of genetic and environmental factors. The aim of this work was to identify genes or genetic variants, which contribute to the pathogenesis of sporadic and familial narcolepsy. Sporadic narcolepsy is the disorder with the strongest human leukocyte antigen (HLA) association ever reported. Since the associated HLA-DRB1 *1501-DQB1 *0602 haplotype is common in the general population (15-25%), it has been suggested that it is necessary but not sufficient for developing narcolepsy. To further define the genetic basis of narcolepsy risk, we performed a genome-wide association study (GWAS) in 562 European individuals with narcolepsy (cases) and 702 ethnically matched controls, with independent replication in 370 cases and 495 controls, all heterozygous for DRB1*1501-DQB1*0602. We found association with a protective variant near HLA-DQA2. Further analysis revealed that the identified SNP is strongly linked to DRB1*03-DQB1*02 and DRBΠ 301-DQB1*0603. Cases almost never carried a trans DRB1*1301-DQB1*0603 haplotype. This unexpected protective HLA haplotype suggests a causal involvement of the HLA region in narcolepsy susceptibility. Familial cases of narcolepsy account for 10% of all narcolepsy cases. However, due to low number of affected family members, narcolepsy families are usually not eligible for genetic linkage studies. We identified and characterized a large Spanish family with 11 affected family members representing the largest ever reported narcolepsy family. We ran a genetic linkage analysis using DNA of 11 affected and 15 unaffected family members and hereby identified a chromosomal candidate region on chromosome 6 encompassing 163 kb with a maximum multipoint LOD score of 5.02. The coding sequences of 4 genes within this haplotype block as well as 2 neighboring genes were screened for pathogenetic mutations in 2 affected and 1 healthy family members. So far no pathogenic mutation could be identified. Further in-depth sequencing of our candidate region as well as whole genome exome sequencing are underway to identify the pathogenic mutation(s) in this family and will further improve our understanding of the genetic basis of narcolepsy. 2 Résumé Le sommeil est un processus vital, dont la fonction physiologique est encore inconnue, malgré de nombreuses études chez des sujets humains sains ainsi que dans des modèles animaux. L'étude de patients souffrant de troubles du sommeil peut permettre la découverte de voies biologiques jouant un rôle majeur dans la régulation du sommeil. L'un de ces troubles, la narcolepsie, est une maladie rare mais néanmoins bien définie, caractérisée par une somnolence diurne excessive accompagnée de cataplexies. Les connaissances actuelles suggèrent qu'une combinaison de facteurs génétiques et environnementaux en est à l'origine. Le but du présent travail était d'identifier !e(s) gène(s) ou les polymorphismes constituant des facteurs de risque dans les formes sporadique et familiale de narcolepsie. La narcolepsie sporadique est la maladie possédant la plus forte association avec le complexe majeur d'histocompatibilité humain (HLA) jamais reportée. La fréquence au sein de la population générale de l'haplotype associé HLA-DRB1*1501- DQB1*0602 (15-25%) suggère que ce dernier est nécessaire, mais pas suffisant, pour (e développement de la maladie. Nous avons voulu approfondir la recherche de facteurs génétiques augmentant le risque de la narcolepsie. A cette fin, nous avons entrepris une étude d'association à l'échelle du génome (genome-wide association study, GWAS) parmi 562 sujets narcoleptiques européens (cas) et 702 individus contrôle de même origine ethnique et nous avons trouvé une association avec un variant protecteur près du gène HLA- DQA2. Ce résultat a été répliqué indépendamment dans 370 cas et 495 contrôles, tous hétérozygotes au locus DRB1*1501-DQB1*0602. Une analyse plus fine montre que le polymorphisme identifié est fortement lié aux allèles DRB1*03-DQB1*02 et DRB1*1301-DQB1*0603. Nous notons que seul un cas était porteur d'un haplotype en trans DRB1*1301-DQBr0603. La découverte de cet allele HLA protecteur suggère que la région HLA joue un rôle causal dans la susceptibilité à la narcolepsie. Dix pourcents des cas de narcolepsie sont familiaux. Cependant, le faible nombre de membres affectés rend ces familles inéligibles pour des études de liaison génétique. Nous avons identifié et caractérisé une grande famille espagnole, dont 11 membres sont atteints par la maladie, ce qui représente la plus grande famille narcoleptique rapportée jusqu'à ce jour. A partir de l'ADN de 11 membres atteints et 15 non- atteints, nous avons identifié par étude de liaison une région candidate de 163 kîlobases (kb) sur le chromosome 6, correspondant à un LOD score multipoints de 5.02. Nous avons cherché, sans succès, des mutations pathogéniques dans la séquence codante de deux gènes situés à l'intérieur de ce segment, ainsi que 4 gènes adjacents. Un séquençage plus approfondi de la région ainsi que le séquençage des exons de tout le génome est en cours et doit s'avérer plus fructueux et révéler la ou tes mutation(s) pathogénique(s) dans cette famille, ce qui contribuerait à une meilleure compréhension des causes génétiques de la narcolepsie. 3 Résumé pour un large public Le sommeil est une nécessité vitale, dont le rôle physiologique exact reste inconnu malgré de nombreuses études sur des sujets humains sains ainsi que sur des modèles animaux. C'est pourquoi les troubles du sommeil intéressent les chercheurs, car l'élucidation des mécanismes responsables peut permettre de mieux comprendre le fonctionnement du sommeil normal. La narcolepsie est une maladie du sommeil caractérisée par une somnolence diurne excessive. Les personnes atteintes peuvent s'endormir involontairement à tout moment de la journée, et souffrent également de pertes du tonus musculaire (cataplexie) lors de fortes émotions, par exemple un fou rire. La narcolepsie est une maladie rare, apparaissant dans 1 personne sur 2000. Les connaissances actuelles suggèrent qu'une combinaison de facteurs génétiques et environnementaux en est à l'origine. Nous avons voulu identifier les facteurs génétiques influençant le déclenchement de la maladie, d'abord dans sa forme sporadique, puis dans une famille comptant de nombreux membres atteints. En comparant les variations génétiques de près de 1000 sujets narcoleptiques européens avec ceux de 1200 individus sains, nous avons trouvé chez 30% de ces derniers un variant protecteur, qui diminue de 50 fois le risque de développer la maladie, ce qui constitue le plus puissant facteur génétique protecteur décrit à ce jour. Nous avons ensuite étudié une grande famille espagnole comptant une trentaine de membres, dont 11 sont atteints de narcolepsie. De nouveau, nous avons comparé les variations génétiques des membres atteints avec ceux des membres sains. Nous avons ainsi pu identifier une région dans le génome où se trouverait le(s) gène(s) impliqué(s) dans la maladie dans cette famille, mais n'avons pas encore trouvé le(s) variant(s) exact(s). Une étude plus approfondie devrait permettre de P(les) identifier et ainsi contribuer à l'élucidation des mécanismes menant au développement de la narcolepsie.
Resumo:
La gouvernance de l'Internet est une thématique récente dans la politique mondiale. Néanmoins, elle est devenue au fil des années un enjeu économique et politique important. La question a même pris une importance particulière au cours des derniers mois en devenant un sujet d'actualité récurrent. Forte de ce constat, c ette recherche retrace l'histoire de la gouvernance de l'Internet depuis son émergence comme enjeu politique dans les années 1980 jusqu'à la fin du Sommet Mondial sur la Société de l'Information (SMSI) en 2005. Plutôt que de se focaliser sur l'une ou l'autre des institutions impliquées dans la régulation du réseau informatique mondial, cette recherche analyse l'émergence et l'évolution historique d'un espace de luttes rassemblant un nombre croissant d'acteurs différents. Cette évolution est décrite à travers le prisme de la relation dialectique entre élites et non-élites et de la lutte autour de la définition de la gouvernance de l'Internet. Cette thèse explore donc la question de comment les relations au sein des élites de la gouvernance de l'Internet et entre ces élites et les non-élites expliquent l'emergence, l'évolution et la structuration d'un champ relativement autonome de la politique mondiale centré sur la gouvernance de l'Internet. Contre les perspectives dominantes réaliste et libérales, cette recherche s'ancre dans une approche issue de la combinaison des traditions hétérodoxes en économie politique internationale et des apports de la sociologie politique internationale. Celle-ci s'articule autour des concepts de champ, d'élites et d'hégémonie. Le concept de champ, développé par Bourdieu inspire un nombre croissant d'études de la politique mondiale. Il permet à la fois une étude différenciée de la mondialisation et l'émergence d'espaces de lutte et de domination au niveau transnational. La sociologie des élites, elle, permet une approche pragmatique et centrée sur les acteurs des questions de pouvoir dans la mondialisation. Cette recherche utilise plus particulièrement le concept d'élite du pouvoir de Wright Mills pour étudier l'unification d'élites a priori différentes autour de projets communs. Enfin, cette étude reprend le concept néo-gramscien d'hégémonie afin d'étudier à la fois la stabilité relative du pouvoir d'une élite garantie par la dimension consensuelle de la domination, et les germes de changement contenus dans tout ordre international. A travers l'étude des documents produits au cours de la période étudiée et en s'appuyant sur la création de bases de données sur les réseaux d'acteurs, cette étude s'intéresse aux débats qui ont suivi la commercialisation du réseau au début des années 1990 et aux négociations lors du SMSI. La première période a abouti à la création de l'Internet Corporation for Assigned Names and Numbers (ICANN) en 1998. Cette création est le résultat de la recherche d'un consensus entre les discours dominants des années 1990. C'est également le fruit d'une coalition entre intérêts au sein d'une élite du pouvoir de la gouvernance de l'Internet. Cependant, cette institutionnalisation de l'Internet autour de l'ICANN excluait un certain nombre d'acteurs et de discours qui ont depuis tenté de renverser cet ordre. Le SMSI a été le cadre de la remise en cause du mode de gouvernance de l'Internet par les États exclus du système, des universitaires et certaines ONG et organisations internationales. C'est pourquoi le SMSI constitue la seconde période historique étudiée dans cette thèse. La confrontation lors du SMSI a donné lieu à une reconfiguration de l'élite du pouvoir de la gouvernance de l'Internet ainsi qu'à une redéfinition des frontières du champ. Un nouveau projet hégémonique a vu le jour autour d'éléments discursifs tels que le multipartenariat et autour d'insitutions telles que le Forum sur la Gouvernance de l'Internet. Le succès relatif de ce projet a permis une stabilité insitutionnelle inédite depuis la fin du SMSI et une acceptation du discours des élites par un grand nombre d'acteurs du champ. Ce n'est que récemment que cet ordre a été remis en cause par les pouvoirs émergents dans la gouvernance de l'Internet. Cette thèse cherche à contribuer au débat scientifique sur trois plans. Sur le plan théorique, elle contribue à l'essor d'un dialogue entre approches d'économie politique mondiale et de sociologie politique internationale afin d'étudier à la fois les dynamiques structurelles liées au processus de mondialisation et les pratiques localisées des acteurs dans un domaine précis. Elle insiste notamment sur l'apport de les notions de champ et d'élite du pouvoir et sur leur compatibilité avec les anlayses néo-gramsciennes de l'hégémonie. Sur le plan méthodologique, ce dialogue se traduit par une utilisation de méthodes sociologiques telles que l'anlyse de réseaux d'acteurs et de déclarations pour compléter l'analyse qualitative de documents. Enfin, sur le plan empirique, cette recherche offre une perspective originale sur la gouvernance de l'Internet en insistant sur sa dimension historique, en démontrant la fragilité du concept de gouvernance multipartenaire (multistakeholder) et en se focalisant sur les rapports de pouvoir et les liens entre gouvernance de l'Internet et mondialisation. - Internet governance is a recent issue in global politics. However, it gradually became a major political and economic issue. It recently became even more important and now appears regularly in the news. Against this background, this research outlines the history of Internet governance from its emergence as a political issue in the 1980s to the end of the World Summit on the Information Society (WSIS) in 2005. Rather than focusing on one or the other institution involved in Internet governance, this research analyses the emergence and historical evolution of a space of struggle affecting a growing number of different actors. This evolution is described through the analysis of the dialectical relation between elites and non-elites and through the struggle around the definition of Internet governance. The thesis explores the question of how the relations among the elites of Internet governance and between these elites and non-elites explain the emergence, the evolution, and the structuration of a relatively autonomous field of world politics centred around Internet governance. Against dominant realist and liberal perspectives, this research draws upon a cross-fertilisation of heterodox international political economy and international political sociology. This approach focuses on concepts such as field, elites and hegemony. The concept of field, as developed by Bourdieu, is increasingly used in International Relations to build a differentiated analysis of globalisation and to describe the emergence of transnational spaces of struggle and domination. Elite sociology allows for a pragmatic actor-centred analysis of the issue of power in the globalisation process. This research particularly draws on Wright Mill's concept of power elite in order to explore the unification of different elites around shared projects. Finally, this thesis uses the Neo-Gramscian concept of hegemony in order to study both the consensual dimension of domination and the prospect of change contained in any international order. Through the analysis of the documents produced within the analysed period, and through the creation of databases of networks of actors, this research focuses on the debates that followed the commercialisation of the Internet throughout the 1990s and during the WSIS. The first time period led to the creation of the Internet Corporation for Assigned Names and Numbers (ICANN) in 1998. This creation resulted from the consensus-building between the dominant discourses of the time. It also resulted from the coalition of interests among an emerging power elite. However, this institutionalisation of Internet governance around the ICANN excluded a number of actors and discourses that resisted this mode of governance. The WSIS became the institutional framework within which the governance system was questioned by some excluded states, scholars, NGOs and intergovernmental organisations. The confrontation between the power elite and counter-elites during the WSIS triggered a reconfiguration of the power elite as well as a re-definition of the boundaries of the field. A new hegemonic project emerged around discursive elements such as the idea of multistakeholderism and institutional elements such as the Internet Governance Forum. The relative success of the hegemonic project allowed for a certain stability within the field and an acceptance by most non-elites of the new order. It is only recently that this order began to be questioned by the emerging powers of Internet governance. This research provides three main contributions to the scientific debate. On the theoretical level, it contributes to the emergence of a dialogue between International Political Economy and International Political Sociology perspectives in order to analyse both the structural trends of the globalisation process and the located practices of actors in a given issue-area. It notably stresses the contribution of concepts such as field and power elite and their compatibility with a Neo-Gramscian framework to analyse hegemony. On the methodological level, this perspective relies on the use of mixed methods, combining qualitative content analysis with social network analysis of actors and statements. Finally, on the empirical level, this research provides an original perspective on Internet governance. It stresses the historical dimension of current Internet governance arrangements. It also criticise the notion of multistakeholde ism and focuses instead on the power dynamics and the relation between Internet governance and globalisation.
Resumo:
Objectif : Le syndrome de vasoconstriction cérébrale réversible (SVCR) est une entité clinico-radiologique associant des céphalées paroxystiques à un vasospasme uni- ou multifocal réversible des artères cérébrales avec ou sans déficit neurologique transitoire ou crise comitiale. Le but de notre étude est de rechercher les facteurs de mauvais pronostic des patients présentant un SVCR. Méthode : Nous avons réalisé une étude rétrospective des imageries vasculaires cérébrales invasives et non invasives entre janvier 2006 et 2011 et avons retenu 10 patients présentant les critères du RCVS. Les données démographiques, facteurs de risque vasculaires ainsi que l'évolution de chaque patient ont été noté. Résultats : Sept des 10 patients sont des femmes, avec un âge médian de 46 ans. Quatre patients ne présentaient pas de facteur étiologique, deux femmes se trouvaient en période post-partum (entre la première et la troisième semaine) et les trois autres cas sont induits par des drogues vaso-actives (cannabis pour 2 cas dont un associé à la cyclosporine, sumatriptan pour un cas). La durée moyenne du suivi est de 10,2 mois (0¬28 mois). Deux patients ont présentés une séquelle neurologique : un a gardé des troubles phasiques et l'autre une hémianopsie latérale homonyme. Deux autres patients sont décédés dans les suites, ce qui est inhabituel. Nous n'avons pas trouvé de corrélation d'évolution différente entre les cas de SVCR primaire ou secondaire. Les seules facteurs corrélaient à l'évolution clinique sont le status neurologique à l'admission et la présence de lésion parenchymateuse (ischémie ou hématome) à l'imagerie. Conclusion : La vasoconstriction cérébrale réversible impliquant des déficits neurologiques ou la mort a été, rarement, rapportée. Nous devons garder à l'esprit qu'une telle évolution peut survenir notamment pour les cas présentant un état neurologique dégradé à l'admission ou présentant des lésions parenchymateuses à l'imagerie.
Resumo:
L'initiative Scène Bleue (SB) se veut un espace, lieu de rencontre de jeunes adolescents âgés de 10 à 18 ans, dans le cadre de l'édition 2001 du Festival de Jazz de Montreux. Il s'agit de proposer une série d'animations permettant de faire la fête sans consommation de substances (légales et/ou illégales). Ce document fait l'historique du projet et de l'évaluation conduite par l'IUMSP. Cette évaluation comprend trois volets, correspondant à des temps différents : 1. Avant - documenter la perception des objectifs et les attentes des jeunes et des animateurs, avant le démarrage du projet SB. 2. Pendant - analyser la réalisation du projet in situ et recueillir informations et réactions auprès de la clientèle de la SB. 3. Après - examiner l'évolution des perceptions des différents acteurs, après le festival. Les résultats peuvent être résumés comme suit : la SB a rencontré un vif succès. La démonstration a été faite que le public concerné pouvait être attiré par un lieu avec des interdits relatifs à la consommation de substances : ainsi l'objectif de prévention primaire ciblant des jeunes âgés de 13 ans en moyenne a été atteint. Les visiteurs plus âgés, moins impliqués, ont malgré tout pu réaliser que faire la fête sans alcool ni drogues était possible. Le projet peut à l'avenir être consolidé en définissant des objectifs et des stratégies de prévention explicites. La participation des jeunes à cette entreprise collective partagée avec les animateurs et les reponsables peut être sollicitée davantage, notamment pour ce qui est de l'organisation et des choix concrets relatifs aux diverses animations. [Résumé]