1000 resultados para fonction cardiaque
Resumo:
En France, la décentralisation et la territorialisation de l'action publique ont fait des sports de nature un objet d'action publique légitime en donnant naissance à de nouveaux outils de management public dédiés à la concertation et à la planification des usages de la nature. Nés de l'article 52 de la Loi sur le sport modifiée en 2000, la Commission Départementale des Espaces, Sites et Itinéraires relatifs aux sports de nature (CDESI) et le Plan Départemental des Espaces Sites et Itinéraires relatifs aux sports de nature (PDESI) sont des outils de concertation territoriale dédiés à la gestion publique des sports de nature au niveau départemental. Un enjeu de ce travail tient à l'appréhension des transformations de l'action publique en s'attachant à l'étude des dispositifs de concertation sur les sports de nature. Un deuxième enjeu de ce travail s'attache à mettre en évidence les effets de la concertation en analysant les interactions et les différents modes d'engagements des acteurs au cours de la « chose publique en train de se faire » (Cefaï, 2002). Les acteurs s'engagent non seulement dans la concertation comprise comme une activité sociale faite d'interactions, mais ils s'engagent également dans la concertation en tant que processus d'action publique. Aussi, un autre enjeu de ce travail est d'appréhender les effets de la concertation par une analyse processuelle des engagements (Fillieule, 2004) des acteurs et des organisations. En mobilisant les outils conceptuels de la sociologie interactionniste, de la sociologie pragmatique, ainsi que de la sociologie structuraliste, l'analyse des situations interactionnelles a notamment permis d'identifier les procédures de cadrage et les techniques dramaturgiques mises en oeuvre par les interactants, ainsi que les répertoires argumentatifs mobilisés par ces acteurs pendant l « 'épreuve » de la concertation. Les confrontations des points de vue et les justifications des prises de positions des acteurs peuvent faire évoluer la configuration initiale des jeux d'acteurs même si, pour certains, ces changements ne restent parfois qu'éphémères. Les organisations s'engagent dans la concertation en fonction de la revendication d'une légitimité qui est à comprendre comme une forme militantisme institutionnel s'articulant autour de la valorisation d'une expertise militante, environnementale, institutionnelle, ou encore de leur statut de partenaire institutionnel. In France, decentralization and territorialization of public action have made outdoor sports become an object of public policies justifiable by giving birth to new tools of public management dedicated to the public consultation, the dialogue, and the planning of the uses of the landscapes. Indeed, born of article 52 of the Law on sport modified in 2000, the Departmental committee for Spaces, Sites and Routes relative to natural sports ( CDESI) and the Departmental Plan of Spaces Sites and Routes relative to natural sports ( PDESI) are governance tools dedicated to the public management of outdoor sports for counties. A challenge of this work is to understand the changes of public policy by focusing on the study of mechanisms for consultation on outdoor sports. A second item of this work is to highlight the effects of cooperation by focusing on the analysis of interactions and actor's commitments during the "public thing in the making" (Cefaï, 2002). Actors commit themselves not only in the dialogue included as a social activity made by interactions, but they also take part to the dialogue included as a process of public action. Also, another issue of this work is to understand the effects of consultation by a processual approach of individual commitments (Fillieule, 2004) of actors and organizations. Using the conceptual tools of symbolic interactionism, pragmatic sociology, and structuralist sociology, the analysis of interactional situations has highlighted the framing work and procedures implemented by the interactants, as well as the dramaturgical techniques and argumentative directories which, they mobilize during the "test" of the consultation. Confrontation of viewpoints and justifications of interactants' positions can evolve from their initial configuration sets, even if for some of them these changes are sometimes ephemeral. Organizations involve themselves according to demands of legitimacy which, are to understand as a shape institutional militancy articulating around the valuation of a militant, environmental, institutional expertise, or still around their status of institutional partner.
Resumo:
This dissertation analyses public opinion towards the welfare state across 29 European countries. Based on an interdisciplinary approach combining social psychological, sociological, and public opinion approaches to political opinion formation, it investigates how social position and shared beliefs shape perceived legitimacy of welfare institutions, and how social contexts impact on the processes of opinion formation. Drawing on social representations theory, as well as socialization and self-interest approaches, the dissertation analyses the role of social position in lay support for institutional solidarity. Normative beliefs-defined as preferred views regarding the organisation of social relations-mediate the effect of social position on welfare support. In addition, drawing on public opinion literature, the dissertation analyses opinion formation as a function of country-level structural (e.g., level of social spending, unemployment) and ideological factors (e.g., level of meritocracy). The dissertation comprises two theoretical and four empirical chapters. Three of the empirical chapters use data from the European Social Survey 2008. Using multilevel and typological approaches, the dissertation contributes to welfare attitude literature by showing that normative beliefs, such as distrust or egalitarianism, function as underlying mechanisms that link social position to policy attitudes (Chapter 3), and that characteristics of the national contexts influence the processes of political opinion formation (Chapters 3 and 4). Chapter 5 proposes and predicts a typology of the relationship between attitudes towards solidarity and attitudes towards control, reflecting the two central domains of government intervention. Finally, Chapter 6 examines welfare support in the realm of action and social protest, using data from a survey on Spanish Indigados activists. The findings of this dissertation inform contemporary debates about welfare state legitimacy and retrenchment. - Cette thèse avait pour but d'analyser l'opinion publique envers l'Etat social dans 29 pays européens. Basée sur une approche interdisciplinaire qui combine des perspectives psycho-sociales, sociologiques et d'opinion publique sur la formation d'opinion politique, la thèse étudie comment la position sociale et les croyances partagées façonnent la légitimité perçue des institutions de l'Etat social, et comment les contextes sociaux influencent les processus de formation d'opinion. Basée sur la théorie des représentations sociales, ainsi qu'une approche de socialisation et d'intérêt propre, cette thèse analyse le rôle des positions sociales dans le soutien envers la solidarité institutionnelle. Les croyances normatives-définies comme les visions préférées de l'organisation des rapports sociaux-médiatisent l'effet de la position sociale sur le soutien pour l'Etat social. De plus, s'inspirant de la littérature sur l'opinion publique, la thèse analyse la formation d'opinion en fonction des facteurs structurels (ex. le taux de dépenses sociales, le chômage) et idéologiques (ex. le degré de méritocratie). Cette thèse est composée de deux chapitres théoriques et quatre chapitres empiriques. Trois chapitres empiriques utilisent des données provenant de l'enquête European Social Survey 2008. Appliquant des approches multi-niveux et typoloqiques, la thèse contribue à la littérature sur les attitudes envers l'Etat social en montrant que les croyances normatives, telles que la méfiance ou l'égalitarisme, fonctionnent comme des mécanismes sous-jacents qui relient la position sociale aux attitudes politiques (Chapitre 3), et que les caractéristiques des contextes nationaux influencent les processus de formation d'opinion politique (Chapitres 3 et 4). Le chapitre 5 propose et prédit une typologie sur le rapport entre les attitudes envers la solidarité et celles envers le contrôle, renvoyant à deux domaines centraux de régulation étatique. Enfin, le chapitre 6 examine le soutien à l'Etat social dans le domaine de l'action protestataire, utilisant des données d'une enquête menée auprès des militants espagnols du mouvement des Indignés. Les résultats de cette thèse apportent des éléments qui éclairent les débats contemporains sur la légitimité de l'Etat social et son démantèlement.
Resumo:
Die Bestrebungen für eine Regierungsreform in der Schweiz lassen sich weit zurückverfolgen, sie führten aber zu keinen weitreichenden Ände-rungen betreffend das Regierungsorgan. Hauptsächliche Folgen waren Verwaltungsreformen. Schrittweise oder inkrementalistische Änderungen sind feststellbar. Sie betreffen die sogenannte Organisationsgewalt, die Bundeskanzlei, die Führungsstäbe, vor allem aber die Staatssekretärinnen und Staatssekre-täre. Die Leitplanken und die Zusatzbotschaft aus dem Jahr 2010 des Bun-desrates für eine Regierungsreform richten sich nach den Ergebnissen des Beitrages nach inkrementalistischen Entwicklungen aus. Mit der Verlängerung der Amtsdauer der Bundespräsidentin oder des Bundes-präsidenten könnte zudem ein neuer Entwicklungspfad begründet wer-den. Dem aktuellen Reformanstoss werden auf Grund der verwendeten Erklärungsansätze erhöhte Chancen zugemessen. Les efforts pour une réforme du gouvernement en Suisse remontent loin, mais ils n'ont pas abouti à des modifications de longue portée concernant l'organe gouvernemental. Les résultats principaux étaient des réformes de l'administration. Des modifications graduelles ou incrémentales sont détectables. Elles concernent le pouvoir d'organisation, la Chancellerie fédérale, les états-majors, mais surtout les secrétaires d'État. Les axes principaux et le message additionnel pour une réforme du gouvernement sont orientés vers les développements incrémentales constatés selon les recherches effectuées. L'allongement de la durée de fonction du président de la Confédération pourrait en plus constituer un nouveau chemin du développement. L'impulsion actuelle pour une réforme a des chances élevées d'aboutir selon les essais d'explication.
Resumo:
Les instabilités engendrées par des gradients de densité interviennent dans une variété d'écoulements. Un exemple est celui de la séquestration géologique du dioxyde de carbone en milieux poreux. Ce gaz est injecté à haute pression dans des aquifères salines et profondes. La différence de densité entre la saumure saturée en CO2 dissous et la saumure environnante induit des courants favorables qui le transportent vers les couches géologiques profondes. Les gradients de densité peuvent aussi être la cause du transport indésirable de matières toxiques, ce qui peut éventuellement conduire à la pollution des sols et des eaux. La gamme d'échelles intervenant dans ce type de phénomènes est très large. Elle s'étend de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères à laquelle interviennent les phénomènes à temps long. Une reproduction fiable de la physique par la simulation numérique demeure donc un défi en raison du caractère multi-échelles aussi bien au niveau spatial et temporel de ces phénomènes. Il requiert donc le développement d'algorithmes performants et l'utilisation d'outils de calculs modernes. En conjugaison avec les méthodes de résolution itératives, les méthodes multi-échelles permettent de résoudre les grands systèmes d'équations algébriques de manière efficace. Ces méthodes ont été introduites comme méthodes d'upscaling et de downscaling pour la simulation d'écoulements en milieux poreux afin de traiter de fortes hétérogénéités du champ de perméabilité. Le principe repose sur l'utilisation parallèle de deux maillages, le premier est choisi en fonction de la résolution du champ de perméabilité (grille fine), alors que le second (grille grossière) est utilisé pour approximer le problème fin à moindre coût. La qualité de la solution multi-échelles peut être améliorée de manière itérative pour empêcher des erreurs trop importantes si le champ de perméabilité est complexe. Les méthodes adaptatives qui restreignent les procédures de mise à jour aux régions à forts gradients permettent de limiter les coûts de calculs additionnels. Dans le cas d'instabilités induites par des gradients de densité, l'échelle des phénomènes varie au cours du temps. En conséquence, des méthodes multi-échelles adaptatives sont requises pour tenir compte de cette dynamique. L'objectif de cette thèse est de développer des algorithmes multi-échelles adaptatifs et efficaces pour la simulation des instabilités induites par des gradients de densité. Pour cela, nous nous basons sur la méthode des volumes finis multi-échelles (MsFV) qui offre l'avantage de résoudre les phénomènes de transport tout en conservant la masse de manière exacte. Dans la première partie, nous pouvons démontrer que les approximations de la méthode MsFV engendrent des phénomènes de digitation non-physiques dont la suppression requiert des opérations de correction itératives. Les coûts de calculs additionnels de ces opérations peuvent toutefois être compensés par des méthodes adaptatives. Nous proposons aussi l'utilisation de la méthode MsFV comme méthode de downscaling: la grille grossière étant utilisée dans les zones où l'écoulement est relativement homogène alors que la grille plus fine est utilisée pour résoudre les forts gradients. Dans la seconde partie, la méthode multi-échelle est étendue à un nombre arbitraire de niveaux. Nous prouvons que la méthode généralisée est performante pour la résolution de grands systèmes d'équations algébriques. Dans la dernière partie, nous focalisons notre étude sur les échelles qui déterminent l'évolution des instabilités engendrées par des gradients de densité. L'identification de la structure locale ainsi que globale de l'écoulement permet de procéder à un upscaling des instabilités à temps long alors que les structures à petite échelle sont conservées lors du déclenchement de l'instabilité. Les résultats présentés dans ce travail permettent d'étendre les connaissances des méthodes MsFV et offrent des formulations multi-échelles efficaces pour la simulation des instabilités engendrées par des gradients de densité. - Density-driven instabilities in porous media are of interest for a wide range of applications, for instance, for geological sequestration of CO2, during which CO2 is injected at high pressure into deep saline aquifers. Due to the density difference between the C02-saturated brine and the surrounding brine, a downward migration of CO2 into deeper regions, where the risk of leakage is reduced, takes place. Similarly, undesired spontaneous mobilization of potentially hazardous substances that might endanger groundwater quality can be triggered by density differences. Over the last years, these effects have been investigated with the help of numerical groundwater models. Major challenges in simulating density-driven instabilities arise from the different scales of interest involved, i.e., the scale at which instabilities are triggered and the aquifer scale over which long-term processes take place. An accurate numerical reproduction is possible, only if the finest scale is captured. For large aquifers, this leads to problems with a large number of unknowns. Advanced numerical methods are required to efficiently solve these problems with today's available computational resources. Beside efficient iterative solvers, multiscale methods are available to solve large numerical systems. Originally, multiscale methods have been developed as upscaling-downscaling techniques to resolve strong permeability contrasts. In this case, two static grids are used: one is chosen with respect to the resolution of the permeability field (fine grid); the other (coarse grid) is used to approximate the fine-scale problem at low computational costs. The quality of the multiscale solution can be iteratively improved to avoid large errors in case of complex permeability structures. Adaptive formulations, which restrict the iterative update to domains with large gradients, enable limiting the additional computational costs of the iterations. In case of density-driven instabilities, additional spatial scales appear which change with time. Flexible adaptive methods are required to account for these emerging dynamic scales. The objective of this work is to develop an adaptive multiscale formulation for the efficient and accurate simulation of density-driven instabilities. We consider the Multiscale Finite-Volume (MsFV) method, which is well suited for simulations including the solution of transport problems as it guarantees a conservative velocity field. In the first part of this thesis, we investigate the applicability of the standard MsFV method to density- driven flow problems. We demonstrate that approximations in MsFV may trigger unphysical fingers and iterative corrections are necessary. Adaptive formulations (e.g., limiting a refined solution to domains with large concentration gradients where fingers form) can be used to balance the extra costs. We also propose to use the MsFV method as downscaling technique: the coarse discretization is used in areas without significant change in the flow field whereas the problem is refined in the zones of interest. This enables accounting for the dynamic change in scales of density-driven instabilities. In the second part of the thesis the MsFV algorithm, which originally employs one coarse level, is extended to an arbitrary number of coarse levels. We prove that this keeps the MsFV method efficient for problems with a large number of unknowns. In the last part of this thesis, we focus on the scales that control the evolution of density fingers. The identification of local and global flow patterns allows a coarse description at late times while conserving fine-scale details during onset stage. Results presented in this work advance the understanding of the Multiscale Finite-Volume method and offer efficient dynamic multiscale formulations to simulate density-driven instabilities. - Les nappes phréatiques caractérisées par des structures poreuses et des fractures très perméables représentent un intérêt particulier pour les hydrogéologues et ingénieurs environnementaux. Dans ces milieux, une large variété d'écoulements peut être observée. Les plus communs sont le transport de contaminants par les eaux souterraines, le transport réactif ou l'écoulement simultané de plusieurs phases non miscibles, comme le pétrole et l'eau. L'échelle qui caractérise ces écoulements est définie par l'interaction de l'hétérogénéité géologique et des processus physiques. Un fluide au repos dans l'espace interstitiel d'un milieu poreux peut être déstabilisé par des gradients de densité. Ils peuvent être induits par des changements locaux de température ou par dissolution d'un composé chimique. Les instabilités engendrées par des gradients de densité revêtent un intérêt particulier puisque qu'elles peuvent éventuellement compromettre la qualité des eaux. Un exemple frappant est la salinisation de l'eau douce dans les nappes phréatiques par pénétration d'eau salée plus dense dans les régions profondes. Dans le cas des écoulements gouvernés par les gradients de densité, les échelles caractéristiques de l'écoulement s'étendent de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères sur laquelle interviennent les phénomènes à temps long. Etant donné que les investigations in-situ sont pratiquement impossibles, les modèles numériques sont utilisés pour prédire et évaluer les risques liés aux instabilités engendrées par les gradients de densité. Une description correcte de ces phénomènes repose sur la description de toutes les échelles de l'écoulement dont la gamme peut s'étendre sur huit à dix ordres de grandeur dans le cas de grands aquifères. Il en résulte des problèmes numériques de grande taille qui sont très couteux à résoudre. Des schémas numériques sophistiqués sont donc nécessaires pour effectuer des simulations précises d'instabilités hydro-dynamiques à grande échelle. Dans ce travail, nous présentons différentes méthodes numériques qui permettent de simuler efficacement et avec précision les instabilités dues aux gradients de densité. Ces nouvelles méthodes sont basées sur les volumes finis multi-échelles. L'idée est de projeter le problème original à une échelle plus grande où il est moins coûteux à résoudre puis de relever la solution grossière vers l'échelle de départ. Cette technique est particulièrement adaptée pour résoudre des problèmes où une large gamme d'échelle intervient et évolue de manière spatio-temporelle. Ceci permet de réduire les coûts de calculs en limitant la description détaillée du problème aux régions qui contiennent un front de concentration mobile. Les aboutissements sont illustrés par la simulation de phénomènes tels que l'intrusion d'eau salée ou la séquestration de dioxyde de carbone.
Resumo:
Les gènes orthologues divergent sur plusieurs aspects durant l'évolution. Après une revue de la littérature cherchant à montrer de la divergence entre les orthologues de l'humain et de la souris, j'ai souligné les différentes causes de cette divergence. En comparant les gènes qui divergent en fonction, je n'ai pas trouvé de lien avec la divergence des séquences, pour cette raison je me suis penché sur l'étude de l'expression. Notamment, j'ai étudié le niveau, la spécificité ainsi que la présence/absence d'expression des orthologues humain-souris liés aux maladies Mendéliennes. Malgré les similarités trouvées entre l'humain et la souris, j'ai détecté une différence d'expression spécifique à une des deux espèces liée a un phénotype précis (gène essentiel/non-essentiel). Cela m'a permis de conclure que la différence sur le plan phénotypique entre l'humain et la souris est mieux expliquée par les patrons d'expression plutôt que le niveau d'expression ou la sélection. J'ai été également intéressé par l'évolution des séquences d'ADN codantes pour des protéines, en particulier sur le rôle de la sélection. J'ai commencé par une étude sur la fiabilité de détection de la sélection positive en comparant des séquences divergentes. J'ai trouvé, en utilisant le model de branche-site que la sélection peut être détectée sur des séquences qui ont divergé il y a plus de 500 millions d'années. J'ai analysé le biais de GC entres les séquences sans trouver une influence sur l'estimation de la sélection positive. Finalement, Je crois que ce travail est une première étape dans l'établissement d'un lien entre la sélection et les patrons d'expression des gènes chez les vertébrés.
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management
Resumo:
Le suicide et les tentatives de suicide des adolescents sont des enjeux de santé publique majeurs. En s'appuyant sur le modèle de soins développé à Genève, nous décrivons les différents temps nécessaires pour accueillir, évaluer et orienter un adolescent pris dans un mouvement suicidaire. Un temps d'accueil et d'évaluation pédiatrique, puis un temps d'évaluation psychiatrique et enfin un temps d'orientation à l'issue duquel est proposée une prise en charge spécifique. En fonction des caractéristiques cliniques du jeune (impulsivité, symptomatologie anxio-dépressive...), de sa capacité d'engagement dans les soins et de la qualité des liens du réseau, la prise en charge sera soit ambulatoire intensive, soit hospitalière. Suicide and suicide attempts of adolescents are major public health issues. Based on a model of care developed in Geneva, we describe the conditions necessary to evaluate and guide a teenager trapped in a suicidal behavior. First of all, there must be some time dedicated to pediatric assessement followed by a psychiatric evaluation and finally, the adolescent can be oriented toward specific treatment. Depending on the clinical characteristics of the young adolescent and according to his willingness to engage himself in intensive follow-up (impulsivity, anxious?--depressive symptomatology...), cares will be given either as outpatient with close monitoring or inpatient.
Resumo:
Le terme de « myocardite » est utilisé pour décrire une inflammation non spécifique du muscle cardiaque. Cette inflammation, qui est le plus souvent d'origine infectieuse, peut également être d'origine toxique ou immunologique. Elle peut être associée ou non à une péricardite. Le tableau clinique est habituellement bénin, mais la myocardite peut se compliquer d'une mort subite ou d'un choc cardiogénique rapidement progressif nécessitant une assistance circulatoire ou une transplantation. Dans près de 25% des cas, l'inflammation peut devenir chronique et le cours clinique peut alors évoluer vers celui d'une insuffisance cardiaque globale sur cardiomyopathie dilatée. Après avoir présenté un cas, nous passons en revue les aspects épidémiologiques, diagnostiques et thérapeutiques de cette entité pour laquelle les données fondées sur les preuves sont étonnamment peu nombreuses. Ces éléments justifient le bien-fondé de l'attitude pragmatique qui est généralement adoptée.
Resumo:
Résumé: Les récents progrès techniques de l'imagerie cérébrale non invasives ont permis d'améliorer la compréhension des différents systèmes fonctionnels cérébraux. Les approches multimodales sont devenues indispensables en recherche, afin d'étudier dans sa globalité les différentes caractéristiques de l'activité neuronale qui sont à la base du fonctionnement cérébral. Dans cette étude combinée d'imagerie par résonance magnétique fonctionnelle (IRMf) et d'électroencéphalographie (EEG), nous avons exploité le potentiel de chacune d'elles, soit respectivement la résolution spatiale et temporelle élevée. Les processus cognitifs, de perception et de mouvement nécessitent le recrutement d'ensembles neuronaux. Dans la première partie de cette thèse nous étudions, grâce à la combinaison des techniques IRMf et EEG, la réponse des aires visuelles lors d'une stimulation qui demande le regroupement d'éléments cohérents appartenant aux deux hémi-champs visuels pour en faire une seule image. Nous utilisons une mesure de synchronisation (EEG de cohérence) comme quantification de l'intégration spatiale inter-hémisphérique et la réponse BOLD (Blood Oxygenation Level Dependent) pour évaluer l'activité cérébrale qui en résulte. L'augmentation de la cohérence de l'EEG dans la bande beta-gamma mesurée au niveau des électrodes occipitales et sa corrélation linéaire avec la réponse BOLD dans les aires de VP/V4, reflète et visualise un ensemble neuronal synchronisé qui est vraisemblablement impliqué dans le regroupement spatial visuel. Ces résultats nous ont permis d'étendre la recherche à l'étude de l'impact que le contenu en fréquence des stimuli a sur la synchronisation. Avec la même approche, nous avons donc identifié les réseaux qui montrent une sensibilité différente à l'intégration des caractéristiques globales ou détaillées des images. En particulier, les données montrent que l'implication des réseaux visuels ventral et dorsal est modulée par le contenu en fréquence des stimuli. Dans la deuxième partie nous avons a testé l'hypothèse que l'augmentation de l'activité cérébrale pendant le processus de regroupement inter-hémisphérique dépend de l'activité des axones calleux qui relient les aires visuelles. Comme le Corps Calleux présente une maturation progressive pendant les deux premières décennies, nous avons analysé le développement de la fonction d'intégration spatiale chez des enfants âgés de 7 à 13 ans et le rôle de la myelinisation des fibres calleuses dans la maturation de l'activité visuelle. Nous avons combiné l'IRMf et la technique de MTI (Magnetization Transfer Imaging) afin de suivre les signes de maturation cérébrale respectivement sous l'aspect fonctionnel et morphologique (myelinisation). Chez lés enfants, les activations associées au processus d'intégration entre les hémi-champs visuels sont, comme chez l'adulte, localisées dans le réseau ventral mais se limitent à une zone plus restreinte. La forte corrélation que le signal BOLD montre avec la myelinisation des fibres du splenium est le signe de la dépendance entre la maturation des fonctions visuelles de haut niveau et celle des connections cortico-corticales. Abstract: Recent advances in non-invasive brain imaging allow the visualization of the different aspects of complex brain dynamics. The approaches based on a combination of imaging techniques facilitate the investigation and the link of multiple aspects of information processing. They are getting a leading tool for understanding the neural basis of various brain functions. Perception, motion, and cognition involve the formation of cooperative neuronal assemblies distributed over the cerebral cortex. In this research, we explore the characteristics of interhemispheric assemblies in the visual brain by taking advantage of the complementary characteristics provided by EEG (electroencephalography) and fMRI (Functional Magnetic Resonance Imaging) techniques. These are the high temporal resolution for EEG and high spatial resolution for fMRI. In the first part of this thesis we investigate the response of the visual areas to the interhemispheric perceptual grouping task. We use EEG coherence as a measure of synchronization and BOLD (Blood Oxygenar tion Level Dependent) response as a measure of the related brain activation. The increase of the interhemispheric EEG coherence restricted to the occipital electrodes and to the EEG beta band and its linear relation to the BOLD responses in VP/V4 area points to a trans-hemispheric synchronous neuronal assembly involved in early perceptual grouping. This result encouraged us to explore the formation of synchronous trans-hemispheric networks induced by the stimuli of various spatial frequencies with this multimodal approach. We have found the involvement of ventral and medio-dorsal visual networks modulated by the spatial frequency content of the stimulus. Thus, based on the combination of EEG coherence and fMRI BOLD data, we have identified visual networks with different sensitivity to integrating low vs. high spatial frequencies. In the second part of this work we test the hypothesis that the increase of brain activity during perceptual grouping depends on the activity of callosal axons interconnecting the visual areas that are involved. To this end, in children of 7-13 years, we investigated functional (functional activation with fMRI) and morphological (myelination of the corpus callosum with Magnetization Transfer Imaging (MTI)) aspects of spatial integration. In children, the activation associated with the spatial integration across visual fields was localized in visual ventral stream and limited to a part of the area activated in adults. The strong correlation between individual BOLD responses in .this area and the myelination of the splenial system of fibers points to myelination as a significant factor in the development of the spatial integration ability.
Resumo:
Le dosage du plomb sanguin a été inclus dans l'enquête MONICA (MONItoring of trends and determinants in CArdiovascular disease) sur un échantillon représentatif de la population des cantons de Fribourg et de Vaud. Les résultats sont présentés en trois sections: 1) Distribution de la plombémie en fonction de quelques variables spécifiques: variables socio-démographiques, facteurs de risque classiques des maladies cardio-vasculaires, variables sur certaines habitudes alimentaires; 2) Analyse discriminante des personnes dans le quartile supérieur de la distribution de la plombémie; 3) Description plus détaillée des 18 cas de plombémie supérieure à 1.5 micromoles/l.
Resumo:
Abstract : This work is concerned with the development and application of novel unsupervised learning methods, having in mind two target applications: the analysis of forensic case data and the classification of remote sensing images. First, a method based on a symbolic optimization of the inter-sample distance measure is proposed to improve the flexibility of spectral clustering algorithms, and applied to the problem of forensic case data. This distance is optimized using a loss function related to the preservation of neighborhood structure between the input space and the space of principal components, and solutions are found using genetic programming. Results are compared to a variety of state-of--the-art clustering algorithms. Subsequently, a new large-scale clustering method based on a joint optimization of feature extraction and classification is proposed and applied to various databases, including two hyperspectral remote sensing images. The algorithm makes uses of a functional model (e.g., a neural network) for clustering which is trained by stochastic gradient descent. Results indicate that such a technique can easily scale to huge databases, can avoid the so-called out-of-sample problem, and can compete with or even outperform existing clustering algorithms on both artificial data and real remote sensing images. This is verified on small databases as well as very large problems. Résumé : Ce travail de recherche porte sur le développement et l'application de méthodes d'apprentissage dites non supervisées. Les applications visées par ces méthodes sont l'analyse de données forensiques et la classification d'images hyperspectrales en télédétection. Dans un premier temps, une méthodologie de classification non supervisée fondée sur l'optimisation symbolique d'une mesure de distance inter-échantillons est proposée. Cette mesure est obtenue en optimisant une fonction de coût reliée à la préservation de la structure de voisinage d'un point entre l'espace des variables initiales et l'espace des composantes principales. Cette méthode est appliquée à l'analyse de données forensiques et comparée à un éventail de méthodes déjà existantes. En second lieu, une méthode fondée sur une optimisation conjointe des tâches de sélection de variables et de classification est implémentée dans un réseau de neurones et appliquée à diverses bases de données, dont deux images hyperspectrales. Le réseau de neurones est entraîné à l'aide d'un algorithme de gradient stochastique, ce qui rend cette technique applicable à des images de très haute résolution. Les résultats de l'application de cette dernière montrent que l'utilisation d'une telle technique permet de classifier de très grandes bases de données sans difficulté et donne des résultats avantageusement comparables aux méthodes existantes.
Resumo:
RESUME: Introduction: A Lausanne, les prises en charge en traitement des toxicodépendants sont très majoritairement réalisées par les médecins généralistes en pratique privée. En complémentarité, un centre public universitaire spécialisé a été créé en 1996, le Centre St. Martin (CSM). Les traitements additionnels proposés répondent à une logique de niveaux et séquences de soins. L'orientation des patients sur les structures extérieures en place se réalise dès que possible. Cependant les filières de soins empruntées par ces patients et à fortiori leur évolution suite à leur décharge du CSM restent peu connues. But de la thèse: Le but de cette enquête est de décrire et analyser les filières de soins réalisées par les patients pris en charge au CSM et caractériser les évolutions clinique et sociale qu'ils réalisent depuis leur orientation initiale vers le réseau de soins extérieur. Patients et méthode: Les caractéristiques médico-sociales d'une cohorte de 73 patients reçus consécutivement durant 6 mois (1.7.99 - 31.12.99) avec une demande et une indication de traitement de substitution à la méthadone, ont été établies. L'évolution clinique et l'observance au traitement à 36 ± 3 mois de cette cohorte ont ensuite été mesurées. Résultats: La population de patients pris en charge au CSM présente des caractéristiques médico-psycho¬sociales très précaires avec une polytoxicodépendance par voie intraveineuse pour 56.2 °A des cas. 64.4% sont par ailleurs sans formation, 49.3 % sans logement stable. Une comorbidité psychiatrique est présente dans une large majorité des cas. 62 patients (84.9 %) sur le total étudié de 73 indications consécutives à un traitement de substitution à base de méthadone, ont été retrouvés à 3 ans ± 3 mois de leur début de prise en charge au CSM. Leurs évolutions clinique et psychosociale sont satisfaisantes pour tous les paramètres étudiés et ce, quelle que soit l'option initialement choisie du cadre de soins, en institution publique ou en pratique médicale privée. Ils restent intégrés dans un réseau de soins. Les patients polyconsommateurs par voie intraveineuse d'une combinaison d'héroïne, cocaïne et/ou benzodiazépines (52.5 %), malgré leur faible motivation, parviennent à accéder à un programme structuré : la moitié d'entre eux accepte à un moment donné de leur prise en charge leur admission dans une structure résidentielle. Pour la cohorte étudiée, ces patients représentent 83.3 % des admissions dans ce type de structure. Conclusions: Un programme institutionnel spécialisé, orienté sur la construction d'une complémentarité avec le réseau médico-social en place peut réaliser une rétention et une évolution clinique, en termes de consommations illicites, de psychopathologie et d'intégration sociale, satisfaisantes des patients dans la chaîne thérapeutique. L'orientation dans le réseau médico-social extérieur, chez les médecins praticiens, n'est pas délétère. L'évolution de ces patients diffère peu à 3 ans de celle des patients accueillis et maintenus dans la structure institutionnelle. Les processus de soins sont cependant différents d'un setting à l'autre et les épisodes thérapeutiques nombreux mais peu de patients sont « perdus de vue ». La définition de séquences, modalités et niveaux de soins en fonction des profils présentés par les patients toxicodépendants devrait permettre l'optimisation de la fonctionnalité du réseau médico-social en place.
Resumo:
Objectifs: Comparaison des performances en qualité d'image des deux types de systèmes CR. Matériels et méthodes: Les performances ont été mesurées au moyen de la fonction de transfert de modulation (FTM), du spectre de bruit, de l'efficacité quantique de détection (DQE),le seuil de détection du contraste en épaisseur d'or et la dose glandulaire moyenne. Les systèmes CR à aiguilles Agfa HM5.0 et Carestream SNP-M1 ont étécomparés aux systèmes à poudre Agfa MM3.0, Fuji ProfectCS et Carestream EHR-M3. Résultats: La FTM à 5mm-1 de Agfa HM5,0 et Carestream SNP-M1 est 0,21 et 0,27, et entre 0,14 et 0,16 pour les systèmes à poudre. Un DQE maximal de 0,51 et 0,5 a étéobtenu pour Agfa HM5,0 et Carestream SNP-M1, et 0,35, 0,50 et 0,34 pour Agfa MM3,0, Fuji Profect et Carestream EHR-M3. Des valeurs de DQE à 5mm-1 de0,18 et 0,13 ont été obtenues pour Agfa HM5,0 et Carestream SNP-M1, et entre 0,04 et 0,065 pour les systèmes à poudre. Les seuils de détection du contrastede Agfa HM5,0 et Carestream SNP-M1 étaient 1,33im et 1,29im, et 1,45im et 1,63im pour Agfa MM3,0 et Fuji Profect. Conclusion: Les systèmes à aiguilles offrent des meilleures FTM et DQE et un seuil de visibilité du contraste plus bas que les systèmes à poudre .
Resumo:
Avant-propos : Cette étude a pour objet la rémunération du notaire suisse indépendant (notaire latin) sous ses différentes formes. L'organisation suisse de la fonction notariale est telle que tous les cantons ne connaissent pas nécessairement une organisation comparable à celle que l'on retrouve en Romandie, à savoir une délégation de l'activité ministérielle (activité officielle du notaire) à une personne physique indépendante qui exerce le ministère notarial pour son propre compte et sous sa propre responsabilité. Ainsi, certains cantons de Suisse alémanique ont-ils confié l'instrumentation des actes authentiques à des fonctionnaires (notariat d'Etat) ou ont-ils partagé les fonctions ministérielles entre des fonctionnaires d'une part, et des indépendants, d'autre part (notariat mixte). Une minorité de cantons n'ont pas même de corps notarial organisé. Nous concentrons notre examen sur la rémunération des notaires indépendants et laissons volontairement de côté les autres systèmes d'organisation de la fonction notariale. Celui du notariat d'Etat en particulier, où l'officier public n'est pas le créancier de la prétention pécuniaire découlant de l'exercice du ministère ; cette qualité appartient à la collectivité publique qui l'emploie et le rémunère au moyen d'un salaire. Les règles applicables à la rémunération du notaire d'Etat se confondent alors avec celles des autres fonctionnaires et ne justifient probablement pas d'examen particulier en dehors des études qui seraient consacrées à la rémunération des membres de la fonction publique. Par ailleurs, notre étude comparative se limite aux législations cantonales ayant adopté un notariat purement latin, bien que l'on retrouve également des officiers publics exerçant de manière indépendante dans les cantons à notariat mixte. Nous avons en effet considéré que les comparaisons réalisées, notamment s'agissant des tarifs des émoluments notariaux, se prêtaient mal à un examen lorsque le notariat n'est pas exercé de manière uniforme sur l'ensemble du canton et où la charge ministérielle est largement partagée entre des particuliers et des autorités étatiques. Outre son activité principale consistant à exercer le ministère notariale, le notaire latin est fréquemment amené à agir sur une base privée, notamment comme mandataire. Il assume souvent d'autres tâches telles celles d'exécuteur testamentaire, de tuteur ou d'expert nommé par le juge. Nous devons ainsi appréhender la rémunération du notaire, non sous un seul angle, mais bien à la lumière des différents régimes juridiques qui lui sont applicables. Nous avons donc choisi de diviser notre travail en trois parties (Titres I à III) : - une première partie introductive qui traite de l'organisation du notariat, des droits et devoirs généraux du notaire et de sa responsabilité ; - une deuxième partie consacrée au régime juridique de l'émolument de droit public que le notaire perçoit lorsqu'il exerce son ministère ; - une troisième partie relative aux honoraires du notaire pour ses activités relevant du droit privé ou pour certains mandats spéciaux (exécuteur testamentaire, administrateur d'office, expert judiciaire, tuteur, curateur, etc.) ainsi qu'à divers autres aspects liés à sa rémunération : applicabilité des législations fédérales économiques, facturation, garanties de la créance (solidarité, droit de rétention, provision) avec quelques remarques relatives à la taxe sur la valeur ajoutée (TVA), la procédure de recouvrement de la créance du notaire et les obligations de l'officier public dans le domaine de la comptabilité commerciale. Nous avons tenté d'orienter notre réflexion vers certaines considérations d'ordre pratique afin que cette étude puisse - nous l'espérons du moins - rendre quelques services aux praticiens. Nous précisions encore que nous avons volontairement évité d'aborder les questions économiques et politiques liées à la rémunération du notaire indépendant pour nous cantonner à un examen strictement juridique du sujet.
Resumo:
Depuis 2004, le département de psychiatrie du centre hospitalier universitaire vaudois (CHUV) offre une prise en charge spécifique pour les patients présentant un premier épisode psychotique. La rupture de soins très fréquente, dès la sortie de l'hôpital, le mauvais pronostic à long terme en fonction de la durée de la psychose non traitée et enfin le taux élevé de tentatives de suicide avant une première hospitalisation se sont avérés suffisamment inquiétants et significatifs pour qu'une prise en charge de ce type puisse obtenir un soutien décisif. Dans l'article qui suit, nous nous proposons de décrire le programme Traitement et intervention précoces dans les troubles psychotiques (TIPP) en mettant en lumière la notion centrale de cette offre de soins, à savoir le rôle du case management. Il s'agira de rappeler brièvement les connaissances actuelles sur les psychoses émergentes, particulièrement la perspective plus optimiste que celle naguère réservée à cette forme de trouble psychique. Nous évoquerons également les offres de soins récentes telles qu'elles se déploient dans différents pays pour nous tourner ensuite plus spécifiquement vers notre expérience lausannoise. C'est à cet égard que nous développerons plus en détails le travail essentiel et spécifique du case manager, fil rouge du programme TIPP au long des trois ans qui le composent. La conclusion portera sur les projets de recherche en cours dédiés à cette population de jeunes patients, avec l'espoir que le changement de paradigme évoqué plus haut, un optimisme raisonnable pour le pronostic, puisse lui-même rester une question ouverte à de nouveaux apports scientifiques.