999 resultados para Qualité des données


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Résumé La théorie de l'autocatégorisation est une théorie de psychologie sociale qui porte sur la relation entre l'individu et le groupe. Elle explique le comportement de groupe par la conception de soi et des autres en tant que membres de catégories sociales, et par l'attribution aux individus des caractéristiques prototypiques de ces catégories. Il s'agit donc d'une théorie de l'individu qui est censée expliquer des phénomènes collectifs. Les situations dans lesquelles un grand nombre d'individus interagissent de manière non triviale génèrent typiquement des comportements collectifs complexes qui sont difficiles à prévoir sur la base des comportements individuels. La simulation informatique de tels systèmes est un moyen fiable d'explorer de manière systématique la dynamique du comportement collectif en fonction des spécifications individuelles. Dans cette thèse, nous présentons un modèle formel d'une partie de la théorie de l'autocatégorisation appelée principe du métacontraste. À partir de la distribution d'un ensemble d'individus sur une ou plusieurs dimensions comparatives, le modèle génère les catégories et les prototypes associés. Nous montrons que le modèle se comporte de manière cohérente par rapport à la théorie et est capable de répliquer des données expérimentales concernant divers phénomènes de groupe, dont par exemple la polarisation. De plus, il permet de décrire systématiquement les prédictions de la théorie dont il dérive, notamment dans des situations nouvelles. Au niveau collectif, plusieurs dynamiques peuvent être observées, dont la convergence vers le consensus, vers une fragmentation ou vers l'émergence d'attitudes extrêmes. Nous étudions également l'effet du réseau social sur la dynamique et montrons qu'à l'exception de la vitesse de convergence, qui augmente lorsque les distances moyennes du réseau diminuent, les types de convergences dépendent peu du réseau choisi. Nous constatons d'autre part que les individus qui se situent à la frontière des groupes (dans le réseau social ou spatialement) ont une influence déterminante sur l'issue de la dynamique. Le modèle peut par ailleurs être utilisé comme un algorithme de classification automatique. Il identifie des prototypes autour desquels sont construits des groupes. Les prototypes sont positionnés de sorte à accentuer les caractéristiques typiques des groupes, et ne sont pas forcément centraux. Enfin, si l'on considère l'ensemble des pixels d'une image comme des individus dans un espace de couleur tridimensionnel, le modèle fournit un filtre qui permet d'atténuer du bruit, d'aider à la détection d'objets et de simuler des biais de perception comme l'induction chromatique. Abstract Self-categorization theory is a social psychology theory dealing with the relation between the individual and the group. It explains group behaviour through self- and others' conception as members of social categories, and through the attribution of the proto-typical categories' characteristics to the individuals. Hence, it is a theory of the individual that intends to explain collective phenomena. Situations involving a large number of non-trivially interacting individuals typically generate complex collective behaviours, which are difficult to anticipate on the basis of individual behaviour. Computer simulation of such systems is a reliable way of systematically exploring the dynamics of the collective behaviour depending on individual specifications. In this thesis, we present a formal model of a part of self-categorization theory named metacontrast principle. Given the distribution of a set of individuals on one or several comparison dimensions, the model generates categories and their associated prototypes. We show that the model behaves coherently with respect to the theory and is able to replicate experimental data concerning various group phenomena, for example polarization. Moreover, it allows to systematically describe the predictions of the theory from which it is derived, specially in unencountered situations. At the collective level, several dynamics can be observed, among which convergence towards consensus, towards frag-mentation or towards the emergence of extreme attitudes. We also study the effect of the social network on the dynamics and show that, except for the convergence speed which raises as the mean distances on the network decrease, the observed convergence types do not depend much on the chosen network. We further note that individuals located at the border of the groups (whether in the social network or spatially) have a decisive influence on the dynamics' issue. In addition, the model can be used as an automatic classification algorithm. It identifies prototypes around which groups are built. Prototypes are positioned such as to accentuate groups' typical characteristics and are not necessarily central. Finally, if we consider the set of pixels of an image as individuals in a three-dimensional color space, the model provides a filter that allows to lessen noise, to help detecting objects and to simulate perception biases such as chromatic induction.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La présente étude est à la fois une évaluation du processus de la mise en oeuvre et des impacts de la police de proximité dans les cinq plus grandes zones urbaines de Suisse - Bâle, Berne, Genève, Lausanne et Zurich. La police de proximité (community policing) est à la fois une philosophie et une stratégie organisationnelle qui favorise un partenariat renouvelé entre la police et les communautés locales dans le but de résoudre les problèmes relatifs à la sécurité et à l'ordre public. L'évaluation de processus a analysé des données relatives aux réformes internes de la police qui ont été obtenues par l'intermédiaire d'entretiens semi-structurés avec des administrateurs clés des cinq départements de police, ainsi que dans des documents écrits de la police et d'autres sources publiques. L'évaluation des impacts, quant à elle, s'est basée sur des variables contextuelles telles que des statistiques policières et des données de recensement, ainsi que sur des indicateurs d'impacts construit à partir des données du Swiss Crime Survey (SCS) relatives au sentiment d'insécurité, à la perception du désordre public et à la satisfaction de la population à l'égard de la police. Le SCS est un sondage régulier qui a permis d'interroger des habitants des cinq grandes zones urbaines à plusieurs reprises depuis le milieu des années 1980. L'évaluation de processus a abouti à un « Calendrier des activités » visant à créer des données de panel permettant de mesurer les progrès réalisés dans la mise en oeuvre de la police de proximité à l'aide d'une grille d'évaluation à six dimensions à des intervalles de cinq ans entre 1990 et 2010. L'évaluation des impacts, effectuée ex post facto, a utilisé un concept de recherche non-expérimental (observational design) dans le but d'analyser les impacts de différents modèles de police de proximité dans des zones comparables à travers les cinq villes étudiées. Les quartiers urbains, délimités par zone de code postal, ont ainsi été regroupés par l'intermédiaire d'une typologie réalisée à l'aide d'algorithmes d'apprentissage automatique (machine learning). Des algorithmes supervisés et non supervisés ont été utilisés sur les données à haute dimensionnalité relatives à la criminalité, à la structure socio-économique et démographique et au cadre bâti dans le but de regrouper les quartiers urbains les plus similaires dans des clusters. D'abord, les cartes auto-organisatrices (self-organizing maps) ont été utilisées dans le but de réduire la variance intra-cluster des variables contextuelles et de maximiser simultanément la variance inter-cluster des réponses au sondage. Ensuite, l'algorithme des forêts d'arbres décisionnels (random forests) a permis à la fois d'évaluer la pertinence de la typologie de quartier élaborée et de sélectionner les variables contextuelles clés afin de construire un modèle parcimonieux faisant un minimum d'erreurs de classification. Enfin, pour l'analyse des impacts, la méthode des appariements des coefficients de propension (propensity score matching) a été utilisée pour équilibrer les échantillons prétest-posttest en termes d'âge, de sexe et de niveau d'éducation des répondants au sein de chaque type de quartier ainsi identifié dans chacune des villes, avant d'effectuer un test statistique de la différence observée dans les indicateurs d'impacts. De plus, tous les résultats statistiquement significatifs ont été soumis à une analyse de sensibilité (sensitivity analysis) afin d'évaluer leur robustesse face à un biais potentiel dû à des covariables non observées. L'étude relève qu'au cours des quinze dernières années, les cinq services de police ont entamé des réformes majeures de leur organisation ainsi que de leurs stratégies opérationnelles et qu'ils ont noué des partenariats stratégiques afin de mettre en oeuvre la police de proximité. La typologie de quartier développée a abouti à une réduction de la variance intra-cluster des variables contextuelles et permet d'expliquer une partie significative de la variance inter-cluster des indicateurs d'impacts avant la mise en oeuvre du traitement. Ceci semble suggérer que les méthodes de géocomputation aident à équilibrer les covariables observées et donc à réduire les menaces relatives à la validité interne d'un concept de recherche non-expérimental. Enfin, l'analyse des impacts a révélé que le sentiment d'insécurité a diminué de manière significative pendant la période 2000-2005 dans les quartiers se trouvant à l'intérieur et autour des centres-villes de Berne et de Zurich. Ces améliorations sont assez robustes face à des biais dus à des covariables inobservées et covarient dans le temps et l'espace avec la mise en oeuvre de la police de proximité. L'hypothèse alternative envisageant que les diminutions observées dans le sentiment d'insécurité soient, partiellement, un résultat des interventions policières de proximité semble donc être aussi plausible que l'hypothèse nulle considérant l'absence absolue d'effet. Ceci, même si le concept de recherche non-expérimental mis en oeuvre ne peut pas complètement exclure la sélection et la régression à la moyenne comme explications alternatives. The current research project is both a process and impact evaluation of community policing in Switzerland's five major urban areas - Basel, Bern, Geneva, Lausanne, and Zurich. Community policing is both a philosophy and an organizational strategy that promotes a renewed partnership between the police and the community to solve problems of crime and disorder. The process evaluation data on police internal reforms were obtained through semi-structured interviews with key administrators from the five police departments as well as from police internal documents and additional public sources. The impact evaluation uses official crime records and census statistics as contextual variables as well as Swiss Crime Survey (SCS) data on fear of crime, perceptions of disorder, and public attitudes towards the police as outcome measures. The SCS is a standing survey instrument that has polled residents of the five urban areas repeatedly since the mid-1980s. The process evaluation produced a "Calendar of Action" to create panel data to measure community policing implementation progress over six evaluative dimensions in intervals of five years between 1990 and 2010. The impact evaluation, carried out ex post facto, uses an observational design that analyzes the impact of the different community policing models between matched comparison areas across the five cities. Using ZIP code districts as proxies for urban neighborhoods, geospatial data mining algorithms serve to develop a neighborhood typology in order to match the comparison areas. To this end, both unsupervised and supervised algorithms are used to analyze high-dimensional data on crime, the socio-economic and demographic structure, and the built environment in order to classify urban neighborhoods into clusters of similar type. In a first step, self-organizing maps serve as tools to develop a clustering algorithm that reduces the within-cluster variance in the contextual variables and simultaneously maximizes the between-cluster variance in survey responses. The random forests algorithm then serves to assess the appropriateness of the resulting neighborhood typology and to select the key contextual variables in order to build a parsimonious model that makes a minimum of classification errors. Finally, for the impact analysis, propensity score matching methods are used to match the survey respondents of the pretest and posttest samples on age, gender, and their level of education for each neighborhood type identified within each city, before conducting a statistical test of the observed difference in the outcome measures. Moreover, all significant results were subjected to a sensitivity analysis to assess the robustness of these findings in the face of potential bias due to some unobserved covariates. The study finds that over the last fifteen years, all five police departments have undertaken major reforms of their internal organization and operating strategies and forged strategic partnerships in order to implement community policing. The resulting neighborhood typology reduced the within-cluster variance of the contextual variables and accounted for a significant share of the between-cluster variance in the outcome measures prior to treatment, suggesting that geocomputational methods help to balance the observed covariates and hence to reduce threats to the internal validity of an observational design. Finally, the impact analysis revealed that fear of crime dropped significantly over the 2000-2005 period in the neighborhoods in and around the urban centers of Bern and Zurich. These improvements are fairly robust in the face of bias due to some unobserved covariate and covary temporally and spatially with the implementation of community policing. The alternative hypothesis that the observed reductions in fear of crime were at least in part a result of community policing interventions thus appears at least as plausible as the null hypothesis of absolutely no effect, even if the observational design cannot completely rule out selection and regression to the mean as alternative explanations.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The proportion of population living in or around cites is more important than ever. Urban sprawl and car dependence have taken over the pedestrian-friendly compact city. Environmental problems like air pollution, land waste or noise, and health problems are the result of this still continuing process. The urban planners have to find solutions to these complex problems, and at the same time insure the economic performance of the city and its surroundings. At the same time, an increasing quantity of socio-economic and environmental data is acquired. In order to get a better understanding of the processes and phenomena taking place in the complex urban environment, these data should be analysed. Numerous methods for modelling and simulating such a system exist and are still under development and can be exploited by the urban geographers for improving our understanding of the urban metabolism. Modern and innovative visualisation techniques help in communicating the results of such models and simulations. This thesis covers several methods for analysis, modelling, simulation and visualisation of problems related to urban geography. The analysis of high dimensional socio-economic data using artificial neural network techniques, especially self-organising maps, is showed using two examples at different scales. The problem of spatiotemporal modelling and data representation is treated and some possible solutions are shown. The simulation of urban dynamics and more specifically the traffic due to commuting to work is illustrated using multi-agent micro-simulation techniques. A section on visualisation methods presents cartograms for transforming the geographic space into a feature space, and the distance circle map, a centre-based map representation particularly useful for urban agglomerations. Some issues on the importance of scale in urban analysis and clustering of urban phenomena are exposed. A new approach on how to define urban areas at different scales is developed, and the link with percolation theory established. Fractal statistics, especially the lacunarity measure, and scale laws are used for characterising urban clusters. In a last section, the population evolution is modelled using a model close to the well-established gravity model. The work covers quite a wide range of methods useful in urban geography. Methods should still be developed further and at the same time find their way into the daily work and decision process of urban planners. La part de personnes vivant dans une région urbaine est plus élevé que jamais et continue à croître. L'étalement urbain et la dépendance automobile ont supplanté la ville compacte adaptée aux piétons. La pollution de l'air, le gaspillage du sol, le bruit, et des problèmes de santé pour les habitants en sont la conséquence. Les urbanistes doivent trouver, ensemble avec toute la société, des solutions à ces problèmes complexes. En même temps, il faut assurer la performance économique de la ville et de sa région. Actuellement, une quantité grandissante de données socio-économiques et environnementales est récoltée. Pour mieux comprendre les processus et phénomènes du système complexe "ville", ces données doivent être traitées et analysées. Des nombreuses méthodes pour modéliser et simuler un tel système existent et sont continuellement en développement. Elles peuvent être exploitées par le géographe urbain pour améliorer sa connaissance du métabolisme urbain. Des techniques modernes et innovatrices de visualisation aident dans la communication des résultats de tels modèles et simulations. Cette thèse décrit plusieurs méthodes permettant d'analyser, de modéliser, de simuler et de visualiser des phénomènes urbains. L'analyse de données socio-économiques à très haute dimension à l'aide de réseaux de neurones artificiels, notamment des cartes auto-organisatrices, est montré à travers deux exemples aux échelles différentes. Le problème de modélisation spatio-temporelle et de représentation des données est discuté et quelques ébauches de solutions esquissées. La simulation de la dynamique urbaine, et plus spécifiquement du trafic automobile engendré par les pendulaires est illustrée à l'aide d'une simulation multi-agents. Une section sur les méthodes de visualisation montre des cartes en anamorphoses permettant de transformer l'espace géographique en espace fonctionnel. Un autre type de carte, les cartes circulaires, est présenté. Ce type de carte est particulièrement utile pour les agglomérations urbaines. Quelques questions liées à l'importance de l'échelle dans l'analyse urbaine sont également discutées. Une nouvelle approche pour définir des clusters urbains à des échelles différentes est développée, et le lien avec la théorie de la percolation est établi. Des statistiques fractales, notamment la lacunarité, sont utilisées pour caractériser ces clusters urbains. L'évolution de la population est modélisée à l'aide d'un modèle proche du modèle gravitaire bien connu. Le travail couvre une large panoplie de méthodes utiles en géographie urbaine. Toutefois, il est toujours nécessaire de développer plus loin ces méthodes et en même temps, elles doivent trouver leur chemin dans la vie quotidienne des urbanistes et planificateurs.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

With the advancement of high-throughput sequencing and dramatic increase of available genetic data, statistical modeling has become an essential part in the field of molecular evolution. Statistical modeling results in many interesting discoveries in the field, from detection of highly conserved or diverse regions in a genome to phylogenetic inference of species evolutionary history Among different types of genome sequences, protein coding regions are particularly interesting due to their impact on proteins. The building blocks of proteins, i.e. amino acids, are coded by triples of nucleotides, known as codons. Accordingly, studying the evolution of codons leads to fundamental understanding of how proteins function and evolve. The current codon models can be classified into three principal groups: mechanistic codon models, empirical codon models and hybrid ones. The mechanistic models grasp particular attention due to clarity of their underlying biological assumptions and parameters. However, they suffer from simplified assumptions that are required to overcome the burden of computational complexity. The main assumptions applied to the current mechanistic codon models are (a) double and triple substitutions of nucleotides within codons are negligible, (b) there is no mutation variation among nucleotides of a single codon and (c) assuming HKY nucleotide model is sufficient to capture essence of transition- transversion rates at nucleotide level. In this thesis, I develop a framework of mechanistic codon models, named KCM-based model family framework, based on holding or relaxing the mentioned assumptions. Accordingly, eight different models are proposed from eight combinations of holding or relaxing the assumptions from the simplest one that holds all the assumptions to the most general one that relaxes all of them. The models derived from the proposed framework allow me to investigate the biological plausibility of the three simplified assumptions on real data sets as well as finding the best model that is aligned with the underlying characteristics of the data sets. -- Avec l'avancement de séquençage à haut débit et l'augmentation dramatique des données géné¬tiques disponibles, la modélisation statistique est devenue un élément essentiel dans le domaine dé l'évolution moléculaire. Les résultats de la modélisation statistique dans de nombreuses découvertes intéressantes dans le domaine de la détection, de régions hautement conservées ou diverses dans un génome de l'inférence phylogénétique des espèces histoire évolutive. Parmi les différents types de séquences du génome, les régions codantes de protéines sont particulièrement intéressants en raison de leur impact sur les protéines. Les blocs de construction des protéines, à savoir les acides aminés, sont codés par des triplets de nucléotides, appelés codons. Par conséquent, l'étude de l'évolution des codons mène à la compréhension fondamentale de la façon dont les protéines fonctionnent et évoluent. Les modèles de codons actuels peuvent être classés en trois groupes principaux : les modèles de codons mécanistes, les modèles de codons empiriques et les hybrides. Les modèles mécanistes saisir une attention particulière en raison de la clarté de leurs hypothèses et les paramètres biologiques sous-jacents. Cependant, ils souffrent d'hypothèses simplificatrices qui permettent de surmonter le fardeau de la complexité des calculs. Les principales hypothèses retenues pour les modèles actuels de codons mécanistes sont : a) substitutions doubles et triples de nucleotides dans les codons sont négligeables, b) il n'y a pas de variation de la mutation chez les nucléotides d'un codon unique, et c) en supposant modèle nucléotidique HKY est suffisant pour capturer l'essence de taux de transition transversion au niveau nucléotidique. Dans cette thèse, je poursuis deux objectifs principaux. Le premier objectif est de développer un cadre de modèles de codons mécanistes, nommé cadre KCM-based model family, sur la base de la détention ou de l'assouplissement des hypothèses mentionnées. En conséquence, huit modèles différents sont proposés à partir de huit combinaisons de la détention ou l'assouplissement des hypothèses de la plus simple qui détient toutes les hypothèses à la plus générale qui détend tous. Les modèles dérivés du cadre proposé nous permettent d'enquêter sur la plausibilité biologique des trois hypothèses simplificatrices sur des données réelles ainsi que de trouver le meilleur modèle qui est aligné avec les caractéristiques sous-jacentes des jeux de données. Nos expériences montrent que, dans aucun des jeux de données réelles, tenant les trois hypothèses mentionnées est réaliste. Cela signifie en utilisant des modèles simples qui détiennent ces hypothèses peuvent être trompeuses et les résultats de l'estimation inexacte des paramètres. Le deuxième objectif est de développer un modèle mécaniste de codon généralisée qui détend les trois hypothèses simplificatrices, tandis que d'informatique efficace, en utilisant une opération de matrice appelée produit de Kronecker. Nos expériences montrent que sur un jeux de données choisis au hasard, le modèle proposé de codon mécaniste généralisée surpasse autre modèle de codon par rapport à AICc métrique dans environ la moitié des ensembles de données. En outre, je montre à travers plusieurs expériences que le modèle général proposé est biologiquement plausible.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Pendant la grossesse, la pression artérielle reste stable malgré une nette augmentation du volume d'éjection systolique et du débit cardiaque. Cette stabilité vient d'un côté d'une vasodilatation périphérique entraînant une diminution des résistances périphériques et d'un autre côté d'une moindre rigidité des principales artères notamment l'aorte. En conséquence, l'amplitude des ondes de pouls est atténuée, de même que leur vitesse de propagation dans le sens tant antérogade que rétrograde (ondes réfléchies). Les ondes réfléchies tendent ainsi à atteindre l'aorte ascendante plus tard durant la systole, voire durant la diastole, ce qui peut contribuer à diminuer la pression puisée. La prééclampsie perturbe massivement ce processus d'adaptation. Il s'agit d'une maladie hypertensive de la grossesse engendrant une importante morbidité et mortalité néonatale et maternelle. Il est à remarquer que la diminution de la rigidité artérielle n'est pas observée chez les patientes atteintes avec pour conséquence une forte augmentation de la pression systolique centrale (aortique) par les ondes réfléchies. Ce fait a été établi grâce à l'existence de la tonométrie d'aplanation, une méthode permettant l'évaluation non invasive de l'onde de pouls centrale. Dans cette méthode, un senseur de pression piézo-électrique permet de capter l'onde de pouls périphérique, le plus souvent sur l'artère radiale. Par la suite, un algorithme validé permet d'en déduire la forme de l'onde de pouls centrale et de visualiser à quel moment du cycle cardiaque s'y ajoutent les ondes réfléchies. Plusieurs études font état d'une forte augmentation de la pression systolique centrale par les ondes réfléchies chez les patientes atteintes de prééclampsie, suggérant l'utilisation de cette méthode pour le diagnostic et le monitoring voire pour le dépistage de ces patientes. Pour atteindre ce but, il est nécessaire d'établir des normes en rapport notamment avec l'âge gestationnel. Dans la littérature, les données pertinentes actuellement disponibles sont variables, voire contradictoires. Par exemple, les ondes réfléchies proéminentes dans la partie diastolique de l'onde de pouls centrale disparaissaient chez des patientes enceintes au 3eme trimestre comparées à des contrôles non enceintes dans une étude lausannoise, alors que deux autres études présentent l'observation contraire. Autre exemple, certains auteurs décrivent une diminution progressive de l'augmentation systolique jusqu'à l'accouchement alors que d'autres rapportent un nadir aux environs du 6ème mois, suivi d'un retour à des valeurs plus élevées en fin de grossesse. Les mesures effectuées dans toutes ces études différaient dans leur exécution, les patientes étant notamment dans des postions corporelles différentes (couchées, semi-couchées, assises, en décubitus latéral). Or nous savons que le status hémodynamique est très sensible aux changements de position, particulièrement durant la grossesse où l'utérus gravide est susceptible d'avoir des interactions mécaniques avec les veines et possiblement les artères abdominales. Ces différences méthodologiques pourraient donc expliquer, au moins en partie, l'hétérogénéité des résultats concernant l'onde de pouls chez la femme enceinte, ce qui à notre connaissance n'a jamais été exploré. Nous avons mesuré l'onde de pouls dans les positions assise et couchée chez des femmes enceintes, au 3eme trimestre d'une grossesse non compliquée, et nous avons effectué une comparaison avec des données similaire obtenues chez des femmes non enceintes en bonne santé habituelle. Les résultats montrent que la position du corps a un impact majeur sur la forme de l'onde de pouls centrale. Comparée à la position assise, la position couchée se caractérise par une moindre augmentation systolique et, par contraste, une augmentation diastolique plus marquée. De manière inattendue, cet effet s'observe aussi bien en présence qu'en l'absence de grossesse, suggérant que la cause première n'en réside pas dans les interactions mécaniques de l'utérus gravide avec les vaisseaux sanguins abdominaux. Nos observations pourraient par contre être expliquées par l'influence de la position du corps, via un phénomène hydrostatique simple, sur la pression transmurale des artères éloignées du coeur, tout particulièrement celles des membres inférieurs et de l'étage abdominal. En position verticale, ces vaisseaux augmenteraient leur rigidité pour résister à la distension de leur paroi, ce qui y accroîtrait la vitesse de propagation des ondes de pression. En l'état, cette explication reste hypothétique. Mais quoi qu'il en soit, nos résultats expliquent certaines discordances entre les études conduites à ce jour pour caractériser l'influence de la grossesse physiologique sur la forme de l'onde de pouls central. De plus, ils indiquent que la position du corps doit être prise en compte lors de toute investigation utilisant la tonométrie d'applanation pour déterminer la rigidité des artères chez les jeunes femmes enceintes ou non. Il sera aussi nécessaire d'en tenir compte pour établir des normes en vue d'une utilisation de la tonométrie d'aplanation pour dépister ou suivre les patientes atteintes de prééclampsie. Il serait enfin intéressant d'évaluer si l'effet de la position sur la forme de l'onde de pouls central existe également dans l'autre sexe et chez des personnes plus âgées.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La notion de développement durable structure le débat contemporain sur les finalités et les instruments des politiques publiques. La montée en puissance des préoccupations environnementales et de qualité des cadres de vie déplace les enjeux traditionnels de l'aménagement. Cette refonte s'inscrit dans une prise de conscience de la transversalité des problèmes de développement territorial. Une attention accrue est aussi portée aux acteurs et à leur participation invitant à repenser les articulations entre les élus, l'administration et la société civile. L'aménagement du territoire est à un tournant. La complexité accrue du champ décisionnel liée à la multiplicité des objectifs à prendre en compte, à la diversification des acteurs concernés, mais aussi à l'interférence des échelles de gouvernance bouscule les pratiques professionnelles. Cette note vise à montrer les principaux changements observés au cours des dernières années. Elle met l'accent sur la redéfinition des objectifs et des instruments d'aménagement et l'émergence des nouvelles pratiques de conduite de projets.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Résumé La psychiatrie de consultation-liaison (CL) connaît depuis une décennie un essor majeur en Europe sous l'impulsion des recherches multicentriques du groupe European Consultation Liaison Psychiatry - ECLVV (Huyse). En Suisse, la discipline reste à développer par manque de consultants spécialisés selon le rapport 2000 de l'Association des professeurs titulaires de chaires. Néanmoins une harmonisation progressive des standards européens de documentation et d'évaluation apparaît progressivement, notamment dans les travaux du Service de Psychiatrie de Liaison du Centre Hospitalier Universitaire Vaudois. Afin d'améliorer sa pratique de consultation-liaison qui restait jusqu'alors frustrante par un sentiment de débordement et d'absence de feed-back des interventions, le Centre Psychosocial Neuchâtelois de La Chaux-de-Fonds (CPS) a constitué une base de données informatisée de CL à des fins de recherche-action selon les recommandations du groupe ECLVV. Nous avons comparé les valeurs de prévalence de notre activité de CL dans le service de médecine interne de l'Hôpital de La Chaux-de-Fonds en 1994, année du début de l'informatisation des données du CPS, et en 1998, année des plus récents résultats exploitables. La taille de l'échantillon était de 78 cas pour 1994 et de 108 cas pour 1998. Les résultats de notre étude épidémiologique rétrospective et descriptive montraient une augmentation en volume des demandes de CL, une diversification et une complexification des cas. Cette charge croissante sur la psychiatrie de consultation-liaison s'observait également dans les données de la littérature. La réponse psychiatrique du CPS montrait une modestie de moyens et du pragmatisme dans le style des interventions. Ces dernières étaient essentiellement de nature de psychiatrie générale et d'urgence, focalisée sur les tentatives de suicides. Les tentamens, ici comme ailleurs, restent le noyau dur de toute pratique de psychiatrie à l'hôpital général. L'état de lieu de notre pratique de consultation-liaison issu de ce travail a permis de créer une base de données simplifée étendue à l'ensemble des demandes de consultation au CPS afin de réguler le flux de toutes ses interventions face aux demandes toujours croissantes. Dans ce sens, notre étude a montré la nécessité de formaliser les demandes de consultation psychiatrique à l'hôpital général afin d'optimaliser les réponses des consultants.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Résumé Introduction : Les patients nécessitant une prise en charge prolongée en milieu de soins intensifs et présentant une évolution compliquée, développent une réponse métabolique intense caractérisée généralement par un hypermétabolisme et un catabolisme protéique. La sévérité de leur atteinte pathologique expose ces patients à la malnutrition, due principalement à un apport nutritionnel insuffisant, et entraînant une balance énergétique déficitaire. Dans un nombre important d'unités de soins intensifs la nutrition des patients n'apparaît pas comme un objectif prioritaire de la prise en charge. En menant une étude prospective d'observation afin d'analyser la relation entre la balance énergétique et le pronostic clinique des patients avec séjours prolongés en soins intensifs, nous souhaitions changer cette attitude et démonter l'effet délétère de la malnutrition chez ce type de patient. Méthodes : Sur une période de 2 ans, tous les patients, dont le séjour en soins intensifs fut de 5 jours ou plus, ont été enrôlés. Les besoins en énergie pour chaque patient ont été déterminés soit par calorimétrie indirecte, soit au moyen d'une formule prenant en compte le poids du patient (30 kcal/kg/jour). Les patients ayant bénéficié d'une calorimétrie indirecte ont par ailleurs vérifié la justesse de la formule appliquée. L'âge, le sexe le poids préopératoire, la taille, et le « Body mass index » index de masse corporelle reconnu en milieu clinique ont été relevés. L'énergie délivrée l'était soit sous forme nutritionnelle (administration de nutrition entérale, parentérale ou mixte) soit sous forme non-nutritionnelle (perfusions : soluté glucosé, apport lipidique non nutritionnel). Les données de nutrition (cible théorique, cible prescrite, énergie nutritionnelle, énergie non-nutritionnelle, énergie totale, balance énergétique nutritionnelle, balance énergétique totale), et d'évolution clinique (nombre des jours de ventilation mécanique, nombre d'infections, utilisation des antibiotiques, durée du séjour, complications neurologiques, respiratoires gastro-intestinales, cardiovasculaires, rénales et hépatiques, scores de gravité pour patients en soins intensifs, valeurs hématologiques, sériques, microbiologiques) ont été analysées pour chacun des 669 jours de soins intensifs vécus par un total de 48 patients. Résultats : 48 patients de 57±16 ans dont le séjour a varié entre 5 et 49 jours (motif d'admission : polytraumatisés 10; chirurgie cardiaque 13; insuffisance respiratoire 7; pathologie gastro-intestinale 3; sepsis 3; transplantation 4; autre 8) ont été retenus. Si nous n'avons pu démontrer une relation entre la balance énergétique et plus particulièrement, le déficit énergétique, et la mortalité, il existe une relation hautement significative entre le déficit énergétique et la morbidité, à savoir les complications et les infections, qui prolongent naturellement la durée du séjour. De plus, bien que l'étude ne comporte aucune intervention et que nous ne puissions avancer qu'il existe une relation de cause à effet, l'analyse par régression multiple montre que le facteur pronostic le plus fiable est justement la balance énergétique, au détriment des scores habituellement utilisés en soins intensifs. L'évolution est indépendante tant de l'âge et du sexe, que du status nutritionnel préopératoire. L'étude ne prévoyait pas de récolter des données économiques : nous ne pouvons pas, dès lors, affirmer que l'augmentation des coûts engendrée par un séjour prolongé en unité de soins intensifs est induite par un déficit énergétique, même si le bon sens nous laisse penser qu'un séjour plus court engendre un coût moindre. Cette étude attire aussi l'attention sur l'origine du déficit énergétique : il se creuse au cours de la première semaine en soins intensifs, et pourrait donc être prévenu par une intervention nutritionnelle précoce, alors que les recommandations actuelles préconisent un apport énergétique, sous forme de nutrition artificielle, qu'à partir de 48 heures de séjour aux soins intensifs. Conclusions : L'étude montre que pour les patients de soins intensifs les plus graves, la balance énergétique devrait être considérée comme un objectif important de la prise en charge, nécessitant l'application d'un protocole de nutrition précoce. Enfin comme l'évolution à l'admission des patients est souvent imprévisible, et que le déficit s'installe dès la première semaine, il est légitime de s'interroger sur la nécessité d'appliquer ce protocole à tous les patients de soins intensifs et ceci dès leur admission. Summary Background and aims: Critically ill patients with complicated evolution are frequently hypermetabolic, catabolic, and at risk of underfeeding. The study aimed at assessing the relationship between energy balance and outcome in critically ill patients. Methods: Prospective observational study conducted in consecutive patients staying 5 days in the surgical ICU of a University hospital. Demographic data, time to feeding, route, energy delivery, and outcome were recorded. Energy balance was calculated as energy delivery minus target. Data in means+ SD, linear regressions between energy balance and outcome variables. Results: Forty eight patients aged 57±16 years were investigated; complete data are available in 669 days. Mechanical ventilation lasted 11±8 days, ICU stay 15+9 was days, and 30-days mortality was 38%. Time to feeding was 3.1 ±2.2 days. Enteral nutrition was the most frequent route with 433 days. Mean daily energy delivery was 1090±930 kcal. Combining enteral and parenteral nutrition achieved highest energy delivery. Cumulated energy balance was between -12,600+ 10,520 kcal, and correlated with complications (P<0.001), already after 1 week. Conclusion: Negative energy balances were correlated with increasing number of complications, particularly infections. Energy debt appears as a promising tool for nutritional follow-up, which should be further tested. Delaying initiation of nutritional support exposes the patients to energy deficits that cannot be compensated later on.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This dissertation analyses public opinion towards the welfare state across 29 European countries. Based on an interdisciplinary approach combining social psychological, sociological, and public opinion approaches to political opinion formation, it investigates how social position and shared beliefs shape perceived legitimacy of welfare institutions, and how social contexts impact on the processes of opinion formation. Drawing on social representations theory, as well as socialization and self-interest approaches, the dissertation analyses the role of social position in lay support for institutional solidarity. Normative beliefs-defined as preferred views regarding the organisation of social relations-mediate the effect of social position on welfare support. In addition, drawing on public opinion literature, the dissertation analyses opinion formation as a function of country-level structural (e.g., level of social spending, unemployment) and ideological factors (e.g., level of meritocracy). The dissertation comprises two theoretical and four empirical chapters. Three of the empirical chapters use data from the European Social Survey 2008. Using multilevel and typological approaches, the dissertation contributes to welfare attitude literature by showing that normative beliefs, such as distrust or egalitarianism, function as underlying mechanisms that link social position to policy attitudes (Chapter 3), and that characteristics of the national contexts influence the processes of political opinion formation (Chapters 3 and 4). Chapter 5 proposes and predicts a typology of the relationship between attitudes towards solidarity and attitudes towards control, reflecting the two central domains of government intervention. Finally, Chapter 6 examines welfare support in the realm of action and social protest, using data from a survey on Spanish Indigados activists. The findings of this dissertation inform contemporary debates about welfare state legitimacy and retrenchment. - Cette thèse avait pour but d'analyser l'opinion publique envers l'Etat social dans 29 pays européens. Basée sur une approche interdisciplinaire qui combine des perspectives psycho-sociales, sociologiques et d'opinion publique sur la formation d'opinion politique, la thèse étudie comment la position sociale et les croyances partagées façonnent la légitimité perçue des institutions de l'Etat social, et comment les contextes sociaux influencent les processus de formation d'opinion. Basée sur la théorie des représentations sociales, ainsi qu'une approche de socialisation et d'intérêt propre, cette thèse analyse le rôle des positions sociales dans le soutien envers la solidarité institutionnelle. Les croyances normatives-définies comme les visions préférées de l'organisation des rapports sociaux-médiatisent l'effet de la position sociale sur le soutien pour l'Etat social. De plus, s'inspirant de la littérature sur l'opinion publique, la thèse analyse la formation d'opinion en fonction des facteurs structurels (ex. le taux de dépenses sociales, le chômage) et idéologiques (ex. le degré de méritocratie). Cette thèse est composée de deux chapitres théoriques et quatre chapitres empiriques. Trois chapitres empiriques utilisent des données provenant de l'enquête European Social Survey 2008. Appliquant des approches multi-niveux et typoloqiques, la thèse contribue à la littérature sur les attitudes envers l'Etat social en montrant que les croyances normatives, telles que la méfiance ou l'égalitarisme, fonctionnent comme des mécanismes sous-jacents qui relient la position sociale aux attitudes politiques (Chapitre 3), et que les caractéristiques des contextes nationaux influencent les processus de formation d'opinion politique (Chapitres 3 et 4). Le chapitre 5 propose et prédit une typologie sur le rapport entre les attitudes envers la solidarité et celles envers le contrôle, renvoyant à deux domaines centraux de régulation étatique. Enfin, le chapitre 6 examine le soutien à l'Etat social dans le domaine de l'action protestataire, utilisant des données d'une enquête menée auprès des militants espagnols du mouvement des Indignés. Les résultats de cette thèse apportent des éléments qui éclairent les débats contemporains sur la légitimité de l'Etat social et son démantèlement.