1000 resultados para réseaux intégrés de soins


Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Ce travail vise à clarifier les résultats contradictoires de la littérature concernant les besoins des patients d'être informés et de participer à la prise de décision. La littérature insiste sur le contenu de l'information comme base de la prise de décision, bien qu'il existe des preuves que d'autres contenus sont importants pour les patients. La thèse essaie en outre d'identifier des possibilités de mieux répondre aux préférences d'information et de participation des patients. Les travaux ont porté en particulier sur les soins palliatifs. Une analyse de la littérature donne un aperçu sur les soins palliatifs, sur l'information des patients et sur leur participation à la prise de décisions thérapeutiques. Cette analyse résume les résultats d'études précédentes et propose un: modèle théorique d'information, de prise de décision et de relation entre ces deux domaines. Dans le cadre de ce travail, deux études empiriques ont utilisé des questionnaires écrits adressés à des personnes privées et à des professionnels de la santé, couvrant la Suisse et le Royaume Uni, pour identifier d'éventuelles différences entre ces deux pays. Les enquêtes ont été focalisées sur des patients souffrant de cancer du poumon. Les instruments utilisés pour ces études proviennent de la littérature afin de les rendre comparables. Le taux de réponse aux questionnaires était de 30-40%. La majorité des participants aux enquêtes estime que les patients devraient: - collaborer à la prise de décision quant à leur traitement - recevoir autant d'information que possible, positive aussi bien que négative - recevoir toutes les informations mentionnées dans le questionnaire (concernant la maladie, le diagnostic et les traitements), tenant compte de la diversité des priorités des patients - être soutenus par des professionnels de la santé, leur famille, leurs amis et/ou les personnes souffrant de la même maladie En plus, les participants aux enquêtes ont identifié divers contenus de l'information aux patients souffrant d'une maladie grave. Ces contenus comprennent entre autres: - L'aide à la prise de décision concernant le traitement - la possibilité de maintenir le contrôle de la situation - la construction d'une relation entre le patient et le soignant - l'encouragement à faire des projets d'avenir - l'influence de l'état émotionnel - l'aide à la compréhension de la maladie et de son impact - les sources potentielles d'états confusionnels et d'états anxieux La plupart des contenus proposés sont positifs. Les résultats suggèrent la coexistence possible de différents contenus à un moment donné ainsi que leur changement au cours du temps. Un modèle est ensuite développé et commenté pour présenter le diagnostic d'une maladie grave. Ce modèle est basé sur la littérature et intègre les résultats des études empiriques réalisées dans le cadre de ce travail. Ce travail analyse également les sources préférées d'information et de soutien, facteurs qui peuvent influencer ou faire obstacle aux préférences d'information et de participation. Les deux groupes de participants considèrent les médecins spécialistes comme la meilleure source d'information. En ce qui concerne le soutien, les points de vue divergent entre les personnes privées et les professionnels de la santé: généralement, les rôles de soutien semblent peu définis parmi les professionnels. Les barrières à l'information adéquate du patient apparaissent fréquemment liées aux caractéristiques des professionnels et aux problèmes d'organisation. Des progrès dans ce domaine contribueraient à améliorer les soins fournis aux patients. Finalement, les limites des études empiriques sont discutées. Celles-ci comprennent, entre autres, la représentativité restreinte des participants et les objections de certains groupes de participants à quelques détails des questionnaires. Summary The present thesis follows a call from the current body of literature to better understand patient needs for information and for participation in decision-making, as previous research findings had been contradictory. Information so far seems to have been considered essentially as a means to making treatment decisions, despite certain evidence that it may have a number of other values to patients. Furthermore, the thesis aims to identify ways to optimise meeting patient preferences for information and participation in treatment decisions. The current field of interest is palliative care. An extensive literature review depicts the background of current concepts of palliative care, patient information and patient involvement into treatment decisions. It also draws together results from previous studies and develops a theoretical model of information, decision-making, and the relationship between them. This is followed by two empirical studies collecting data from members of the general public and health care professionals by means of postal questionnaires. The professional study covers both Switzerland and the United Kingdom in order to identify possible differences between countries. Both studies focus on newly diagnosed lung cancer patients. The instruments used were taken from the literature to make them comparable. The response rate in both surveys was 30-40%, as expected -sufficient to allow stastical tests to be performed. A third study, addressed to lung cancer patients themselves, turned out to require too much time within the frame available. A majority of both study populations thought that patients should: - have a collaborative role in treatment-related decision-making -receive as much information as possible, good or bad - receive all types of information mentioned in the questionnaire (about illness, tests, and treatment), although priorities varied across the study populations - be supported by health professionals, family members, friends and/or others with the same illness Furthermore they identified various 'meanings' information may have to patients with a serious illness. These included: - being an aid in treatment-related decision-making - allowing control to be maintained over the situation - helping the patient-professional relationship to be constructed - allowing plans to be made - being positive for the patient's emotional state - helping the illness and its impact to be understood - being a source of anxiety - being a potential source of confusion to the patient Meanings were mostly positive. It was suggested that different meanings could co-exist at a given time and that they might change over time. A model of coping with the disclosure of a serious diagnosis is then developped. This model is based on existing models of coping with threatening events, as takeñ from the literature [ref. 77, 78], and integrates findings from the empirical studies. The thesis then analyses the remaining aspects apparent from the two surveys. These range from the identification of preferred information and support providers to factors influencing or impeding information and participation preferences. Specialist doctors were identified by both study populations as the best information providers whilst with regard to support provision views differed between the general public and health professionals. A need for better definition of supportive roles among health care workers seemed apparent. Barriers to information provision often seem related to health professional characteristics or organisational difficulties, and improvements in the latter field could well help optimising patient care. Finally, limitations of the studies are discussed, including questions of representativness of certain results and difficulties with or objections against questionnaire details by some groups of respondents.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Les glissements de terrain représentent un des principaux risques naturels dans les régions montagneuses. En Suisse, chaque année les glissements de terrains causent des dégâts qui affectent les infrastructures et ont des coûts financiers importants. Une bonne compréhension des mécanismes des glissements peut permettre d'atténuer leur impact. Celle-ci passe notamment par la connaissance de la structure interne du glissement, la détermination de son volume et de son ou ses plans de glissement. Dans un glissement de terrain, la désorganisation et la présence de fractures dans le matériel déplacé engendre un changement des paramètres physiques et en particulier une diminution des vitesses de propagation des ondes sismiques ainsi que de la densité du matériel. Les méthodes sismiques sont de ce fait bien adaptées à l'étude des glissements de terrain. Parmi les méthodes sismiques, l'analyse de la dispersion des ondes de surface est une méthode simple à mettre en oeuvre. Elle présente l'avantage d'estimer les variations des vitesses de cisaillement avec la profondeur sans avoir spécifiquement recours à l'utilisation d'une source d'onde S et de géophones horizontaux. Sa mise en oeuvre en trois étapes implique la mesure de la dispersion des ondes de surface sur des réseaux étendus, la détermination des courbes de dispersion pour finir par l'inversion de ces courbes. Les modèles de vitesse obtenus à partir de cette procédure ne sont valides que lorsque les milieux explorés ne présentent pas de variations latérales. En pratique cette hypothèse est rarement vérifiée, notamment pour un glissement de terrain dans lequel les couches remaniées sont susceptibles de présenter de fortes hétérogénéités latérales. Pour évaluer la possibilité de déterminer des courbes de dispersion à partir de réseaux de faible extension des mesures testes ont été effectuées sur un site (Arnex, VD) équipé d'un forage. Un profil sismique de 190 m de long a été implanté dans une vallée creusée dans du calcaire et remplie par des dépôts glacio-lacustres d'une trentaine de mètres d'épaisseur. Les données acquises le long de ce profil ont confirmé que la présence de variations latérales sous le réseau de géophones affecte l'allure des courbes de dispersion jusqu'à parfois empêcher leur détermination. Pour utiliser l'analyse de la dispersion des ondes de surface sur des sites présentant des variations latérales, notre approche consiste à déterminer les courbes de dispersions pour une série de réseaux de faible extension, à inverser chacune des courbes et à interpoler les différents modèles de vitesse obtenus. Le choix de la position ainsi que de l'extension des différents réseaux de géophones est important. Il tient compte de la localisation des hétérogénéités détectées à partir de l'analyse de sismique réfraction, mais également d'anomalies d'amplitudes observées sur des cartes qui représentent dans le domaine position de tir - position du récepteur, l'amplitude mesurée pour différentes fréquences. La procédure proposée par Lin et Lin (2007) s'est avérée être une méthode efficace permettant de déterminer des courbes de dispersion à partir de réseaux de faible extension. Elle consiste à construire à partir d'un réseau de géophones et de plusieurs positions de tir un enregistrement temps-déports qui tient compte d'une large gamme de distances source-récepteur. Au moment d'assembler les différentes données une correction de phase est appliquée pour tenir compte des hétérogénéités situées entre les différents points de tir. Pour évaluer cette correction nous suggérons de calculer pour deux tir successif la densité spectrale croisée des traces de même offset: Sur le site d'Arnex, 22 courbes de dispersions ont été déterminées pour de réseaux de géophones de 10 m d'extension. Nous avons également profité du forage pour acquérir un profil de sismique verticale en ondes S. Le modèle de vitesse S déduit de l'interprétation du profil de sismique verticale est utilisé comme information à priori lors l'inversion des différentes courbes de dispersion. Finalement, le modèle en deux dimension qui a été établi grâce à l'analyse de la dispersion des ondes de surface met en évidence une structure tabulaire à trois couches dont les limites coïncident bien avec les limites lithologiques observées dans le forage. Dans celui-ci des argiles limoneuses associées à une vitesse de propagation des ondes S de l'ordre de 175 m/s surmontent vers 9 m de profondeur des dépôts de moraine argilo-sableuse caractérisés par des vitesses de propagation des ondes S de l'ordre de 300 m/s jusqu'à 14 m de profondeur et supérieur ou égal à 400 m/s entre 14 et 20 m de profondeur. Le glissement de la Grande Combe (Ballaigues, VD) se produit à l'intérieur du remplissage quaternaire d'une combe creusée dans des calcaires Portlandien. Comme dans le cas du site d'Arnex les dépôts quaternaires correspondent à des dépôts glacio-lacustres. Dans la partie supérieure la surface de glissement a été localisée à une vingtaine de mètres de profondeur au niveau de l'interface qui sépare des dépôts de moraine jurassienne et des dépôts glacio-lacustres. Au pied du glissement 14 courbes de dispersions ont été déterminées sur des réseaux de 10 m d'extension le long d'un profil de 144 m. Les courbes obtenues sont discontinues et définies pour un domaine de fréquence de 7 à 35 Hz. Grâce à l'utilisation de distances source-récepteur entre 8 et 72 m, 2 à 4 modes de propagation ont été identifiés pour chacune des courbes. Lors de l'inversion des courbes de dispersion la prise en compte des différents modes de propagation a permis d'étendre la profondeur d'investigation jusqu'à une vingtaine de mètres de profondeur. Le modèle en deux dimensions permet de distinguer 4 couches (Vs1 < 175 m/s, 175 m/s < Vs2 < 225 m/s, 225 m/s < Vs3 < 400 m/s et Vs4 >.400 m/s) qui présentent des variations d'épaisseur. Des profils de sismiques réflexion en ondes S acquis avec une source construite dans le cadre de ce travail, complètent et corroborent le modèle établi à partir de l'analyse de la dispersion des ondes de surface. Un réflecteur localisé entre 5 et 10 m de profondeur et associé à une vitesse de sommation de 180 m/s souligne notamment la géométrie de l'interface qui sépare la deuxième de la troisième couche du modèle établi à partir de l'analyse de la dispersion des ondes de surface. Abstract Landslides are one of the main natural hazards in mountainous regions. In Switzerland, landslides cause damages every year that impact infrastructures and have important financial costs. In depth understanding of sliding mechanisms may help limiting their impact. In particular, this can be achieved through a better knowledge of the internal structure of the landslide, the determination of its volume and its sliding surface or surfaces In a landslide, the disorganization and the presence of fractures in the displaced material generate a change of the physical parameters and in particular a decrease of the seismic velocities and of the material density. Therefoe, seismic methods are well adapted to the study of landslides. Among seismic methods, surface-wave dispersion analysis is a easy to implement. Through it, shearwave velocity variations with depth can be estimated without having to resort to an S-wave source and to horizontal geophones. Its 3-step implementation implies measurement of surface-wave dispersion with long arrays, determination of the dispersion curves and finally inversion of these curves. Velocity models obtained through this approach are only valid when the investigated medium does not include lateral variations. In practice, this assumption is seldom correct, in particular for landslides in which reshaped layers likely include strong lateral heterogeneities. To assess the possibility of determining dispersion curves from short array lengths we carried out tests measurements on a site (Arnex, VD) that includes a borehole. A 190 m long seismic profile was acquired in a valley carved into limestone and filled with 30 m of glacio-lacustrine sediments. The data acquired along this profile confirmed that the presence of lateral variations under the geophone array influences the dispersion-curve shape so much that it sometimes preventes the dispersion curves determination. Our approach to use the analysis of surface-wave dispersion on sites that include lateral variations consists in obtaining dispersion curves for a series of short length arrays; inverting each so obtained curve and interpolating the different obtained velocity model. The choice of the location as well as the geophone array length is important. It takes into account the location of the heterogeneities that are revealed by the seismic refraction interpretation of the data but also, the location of signal amplitude anomalies observed on maps that represent, for a given frequency, the measured amplitude in the shot position - receiver position domain. The procedure proposed by Lin and Lin (2007) turned out to be an efficient one to determine dispersion curves using short extension arrays. It consists in building a time-offset from an array of geophones with a wide offset range by gathering seismograms acquired with different source-to-receiver offsets. When assembling the different data, a phase correction is applied in order to reduce static phase error induced by lateral variation. To evaluate this correction, we suggest to calculate, for two successive shots, the cross power spectral density of common offset traces. On the Arnex site, 22 curves were determined with 10m in length geophone-arrays. We also took advantage of the borehole to acquire a S-wave vertical seismic profile. The S-wave velocity depth model derived from the vertical seismic profile interpretation is used as prior information in the inversion of the dispersion-curves. Finally a 2D velocity model was established from the analysis of the different dispersion curves. It reveals a 3-layer structure in good agreement with the observed lithologies in the borehole. In it a clay layer with a shear-wave of 175 m/s shear-wave velocity overlies a clayey-sandy till layer at 9 m depth that is characterized down to 14 m by a 300 m/s S-wave velocity; these deposits have a S-wave velocity of 400 m/s between depths of 14 to 20 m. The La Grand Combe landslide (Ballaigues, VD) occurs inside the Quaternary filling of a valley carved into Portlandien limestone. As at the Arnex site, the Quaternary deposits correspond to glaciolacustrine sediments. In the upper part of the landslide, the sliding surface is located at a depth of about 20 m that coincides with the discontinuity between Jurassian till and glacio-lacustrine deposits. At the toe of the landslide, we defined 14 dispersion curves along a 144 m long profile using 10 m long geophone arrays. The obtained curves are discontinuous and defined within a frequency range of 7 to 35 Hz. The use of a wide range of offsets (from 8 to 72 m) enabled us to determine 2 to 4 mode of propagation for each dispersion curve. Taking these higher modes into consideration for dispersion curve inversion allowed us to reach an investigation depth of about 20 m. A four layer 2D model was derived (Vs1< 175 m/s, 175 m/s <Vs2< 225 m/s, 225 m/s < Vs3 < 400 m/s, Vs4> 400 m/s) with variable layer thicknesses. S-wave seismic reflection profiles acquired with a source built as part of this work complete and the velocity model revealed by surface-wave analysis. In particular, reflector at a depth of 5 to 10 m associated with a 180 m/s stacking velocity image the geometry of the discontinuity between the second and third layer of the model derived from the surface-wave dispersion analysis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse cible l'étude de la structure thermique de la croûte supérieure (<10km) dans les arcs magmatiques continentaux, et son influence sur l'enregistrement thermochronologique de leur exhumation et de leur évolution topographique. Nous portons notre regard sur deux chaînes de montagne appartenant aux Cordillères Américaines : Les Cascades Nord (USA) et la zone de faille Motagua (Guatemala). L'approche utilisée est axée sur la thermochronologie (U-Th-Sm)/He sur apatite et zircon, couplée avec la modélisation numérique de la structure thermique de la croûte. Nous mettons en évidence la variabilité à la fois spatiale et temporelle du gradient géothermique, et attirons l'attention du lecteur sur l'importance de prendre en compte la multitude des processus géologiques perturbant la structure thermique dans les chaînes de type cordillère, c'est à dire formées lors de la subduction océanique sous un continent.Une nouvelle approche est ainsi développée pour étudier et contraindre la perturbation thermique autour des chambres magmatiques. Deux profiles âge-elevation (U-Th-Sm)/He sur apatite et zircon, ont été collectées 7 km au sud du batholithe de Chilliwack, Cascades Nord. Les résultats montrent une variabilité spatiale et temporelle du gradient géothermique lors de l'emplacement magmatique qui peut être contrainte et séparé de l'exhumation. Durant l'emplacement de l'intrusion, la perturbation thermique y atteint un état d'équilibre (-80-100 °C/km) qui est fonction du flux de magma et de ia distance à la source du magma, puis rejoint 40 °C/km à la fin du processus d'emplacement magmatique.Quelques nouvelles données (U-Th)/He, replacées dans une compilation des données existantes dans les Cascades Nord, indiquent une vitesse d'exhumation constante (-100 m/Ma) dans le temps et l'espace entre 35 Ma et 2 Ma, associée à un soulèvement uniforme de la chaîne contrôlé par l'emplacement de magma dans la croûte durant toute l'activité de l'arc. Par contre, après ~2 Ma, le versant humide de la chaîne est affecté par une accélération des taux d'exhumation, jusqu'à 3 km de croûte y sont érodés. Les glaciations ont un triple effet sur l'érosion de cette chaîne: (1) augmentation des vitesses d'érosion, d'exhumation et de soulèvement la où les précipitations sont suffisantes, (2) limitation de l'altitude contrôlé par la position de Γ Ε LA, (3) élargissement du versant humide et contraction du versant aride de la chaîne.Les modifications des réseaux de drainage sont des processus de surface souvent sous-estimés au profil d'événements climatiques ou tectoniques. Nous proposons une nouvelle approche couplant une analyse géomorphologique, des données thermochronologiques de basse température ((U-Th-Sm)/He sur apatite et zircon), et l'utilisation de modélisation numérique thermo-cinématique pour les mettre en évidence et les dater; nous testons cette approche sur la gorge de la Skagit river dans les North Cascades.De nouvelles données (U-Th)/He sur zircons, complétant les données existantes, montrent que le déplacement horizontal le long de la faille transformante continentale Motagua, la limite des plaques Caraïbe/Amérique du Nord, a juxtaposé un bloc froid, le bloc Maya (s.s.), contre un bloque chaud, le bloc Chortis (s.s.) originellement en position d'arc. En plus de donner des gammes d'âges thermochronologiques très différents des deux côtés de la faille, le déplacement horizontal rapide (~2 cm/a) a produit un fort échange thermique latéral, résultant en un réchauffement du côté froid et un refroidissement du côté chaud de la zone de faille de Motagua.Enfin des données (U-Th-Sm)/He sur apatite témoignent d'un refroidissement Oligocène enregistré uniquement dans la croûte supérieure de la bordure nord de la zone de faille Motagua. Nous tenterons ultérieurement de reproduire ce découplage vertical de la structure thermique par la modélisation de la formation d'un bassin transtensif et de circulation de fluides le long de la faille de Motagua. - This thesis focuses on the influence of the dynamic thermal structure of the upper crust (<10km) on the thermochronologic record of the exhumational and topographic history of magmatic continental arcs. Two mountain belts from the American Cordillera are studied: the North Cascades (USA) and the Motagua fault zone (Guatemala). I use a combined approach coupling apatite and zircon (U-Th-Sm}/He thermochronology and thermo- kinematic numerical modelling. This study highlights the temporal and spatial variability of the geothermal gradient and the importance to take into account the different geological processes that perturb the thermal structure of Cordilleran-type mountain belts (i.e. mountain belts related to oceanic subduction underneath a continent}.We integrate apatite and zircon (U-Th)/He data with numerical thermo-kinematic models to study the relative effects of magmatic and surface processes on the thermal evolution of the crust and cooling patterns in the Cenozoic North Cascades arc (Washington State, USA). Two age-elevation profiles that are located 7 km south of the well-studied Chiliiwack intrusions shows that spatial and temporal variability in geothermal gradients linked to magma emplacement can be contrained and separated from exhumation processes. During Chiliiwack batholith emplacement at -35-20 Ma, the geothermal gradient of the country rocks increased to a very high steady-state value (80-100°C/km), which is likely a function of magma flux and the distance from the magma source area. Including temporally varying geothermal gradients in the analysis allows quantifying the thermal perturbation around magmatic intrusions and retrieving a relatively simple denudation history from the data.The synthesis of new and previously published (U-Th)/He data reveals that denudation of the Northern Cascades is spatially and temporally constant at -100 m/Ma between ~32 and ~2 Ma, which likely reflects uplift due to magmatic crustal thickening since the initiation of the Cenozoic stage of the continental magmatic arc. In contrast, the humid flank of the North Cascades is affected by a ten-fold acceleration in exhumation rate at ~2 Ma, which we interpret as forced by the initiation of glaciations; around 3 km of crust have been eroded since that time. Glaciations have three distinct effects on the dynamics of this mountain range: (1) they increase erosion, exhumation and uplift rates where precipitation rates are sufficient to drive efficient glacial erosion; (2) they efficiently limit the elevation of the range; (3) they lead to widening of the humid flank and contraction of the arid flank of the belt.Drainage reorganizations constitute an important agent of landscape evolution that is often underestimated to the benefit of tectonic or climatic events. We propose a new method that integrates geomorphology, low-temperature thermochronometry (apatite and zircon {U-Th-Sm)/He), and 3D numerical thermal-kinematic modelling to detect and date drainage instability producing recent gorge incision, and apply this approach to the Skagit River Gorge, North Cascades.Two zircon (U-Th)/He age-elevation profiles sampled on both sides of the Motagua Fault Zone (MFZ), the boundary between the North American and the Caribbean plates, combined with published thermochronological data show that strike-slip displacement has juxtaposed the cold Maya block (s.s.) against the hot, arc derived, Chortis block (s.s ), producing different age patterns on both sides of the fault and short-wavelength lateral thermal exchange, resulting in recent heating of the cool side and cooling of the hot side of the MFZ.Finally, an apatite (U-Th-Sm)/He age-elevation profile records rapid cooling at -35 Ma localized only in the upper crust along the northern side of the Motagua fault zone. We will try to reproduce these data by modeling the thermal perturbation resulting from the formation of a transtensional basin and of fluid flow activity along a crustal- scale strike-slip fault.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract The object of game theory lies in the analysis of situations where different social actors have conflicting requirements and where their individual decisions will all influence the global outcome. In this framework, several games have been invented to capture the essence of various dilemmas encountered in many common important socio-economic situations. Even though these games often succeed in helping us understand human or animal behavior in interactive settings, some experiments have shown that people tend to cooperate with each other in situations for which classical game theory strongly recommends them to do the exact opposite. Several mechanisms have been invoked to try to explain the emergence of this unexpected cooperative attitude. Among them, repeated interaction, reputation, and belonging to a recognizable group have often been mentioned. However, the work of Nowak and May (1992) showed that the simple fact of arranging the players according to a spatial structure and only allowing them to interact with their immediate neighbors is sufficient to sustain a certain amount of cooperation even when the game is played anonymously and without repetition. Nowak and May's study and much of the following work was based on regular structures such as two-dimensional grids. Axelrod et al. (2002) showed that by randomizing the choice of neighbors, i.e. by actually giving up a strictly local geographical structure, cooperation can still emerge, provided that the interaction patterns remain stable in time. This is a first step towards a social network structure. However, following pioneering work by sociologists in the sixties such as that of Milgram (1967), in the last few years it has become apparent that many social and biological interaction networks, and even some technological networks, have particular, and partly unexpected, properties that set them apart from regular or random graphs. Among other things, they usually display broad degree distributions, and show small-world topological structure. Roughly speaking, a small-world graph is a network where any individual is relatively close, in terms of social ties, to any other individual, a property also found in random graphs but not in regular lattices. However, in contrast with random graphs, small-world networks also have a certain amount of local structure, as measured, for instance, by a quantity called the clustering coefficient. In the same vein, many real conflicting situations in economy and sociology are not well described neither by a fixed geographical position of the individuals in a regular lattice, nor by a random graph. Furthermore, it is a known fact that network structure can highly influence dynamical phenomena such as the way diseases spread across a population and ideas or information get transmitted. Therefore, in the last decade, research attention has naturally shifted from random and regular graphs towards better models of social interaction structures. The primary goal of this work is to discover whether or not the underlying graph structure of real social networks could give explanations as to why one finds higher levels of cooperation in populations of human beings or animals than what is prescribed by classical game theory. To meet this objective, I start by thoroughly studying a real scientific coauthorship network and showing how it differs from biological or technological networks using divers statistical measurements. Furthermore, I extract and describe its community structure taking into account the intensity of a collaboration. Finally, I investigate the temporal evolution of the network, from its inception to its state at the time of the study in 2006, suggesting also an effective view of it as opposed to a historical one. Thereafter, I combine evolutionary game theory with several network models along with the studied coauthorship network in order to highlight which specific network properties foster cooperation and shed some light on the various mechanisms responsible for the maintenance of this same cooperation. I point out the fact that, to resist defection, cooperators take advantage, whenever possible, of the degree-heterogeneity of social networks and their underlying community structure. Finally, I show that cooperation level and stability depend not only on the game played, but also on the evolutionary dynamic rules used and the individual payoff calculations. Synopsis Le but de la théorie des jeux réside dans l'analyse de situations dans lesquelles différents acteurs sociaux, avec des objectifs souvent conflictuels, doivent individuellement prendre des décisions qui influenceront toutes le résultat global. Dans ce cadre, plusieurs jeux ont été inventés afin de saisir l'essence de divers dilemmes rencontrés dans d'importantes situations socio-économiques. Bien que ces jeux nous permettent souvent de comprendre le comportement d'êtres humains ou d'animaux en interactions, des expériences ont montré que les individus ont parfois tendance à coopérer dans des situations pour lesquelles la théorie classique des jeux prescrit de faire le contraire. Plusieurs mécanismes ont été invoqués pour tenter d'expliquer l'émergence de ce comportement coopératif inattendu. Parmi ceux-ci, la répétition des interactions, la réputation ou encore l'appartenance à des groupes reconnaissables ont souvent été mentionnés. Toutefois, les travaux de Nowak et May (1992) ont montré que le simple fait de disposer les joueurs selon une structure spatiale en leur permettant d'interagir uniquement avec leurs voisins directs est suffisant pour maintenir un certain niveau de coopération même si le jeu est joué de manière anonyme et sans répétitions. L'étude de Nowak et May, ainsi qu'un nombre substantiel de travaux qui ont suivi, étaient basés sur des structures régulières telles que des grilles à deux dimensions. Axelrod et al. (2002) ont montré qu'en randomisant le choix des voisins, i.e. en abandonnant une localisation géographique stricte, la coopération peut malgré tout émerger, pour autant que les schémas d'interactions restent stables au cours du temps. Ceci est un premier pas en direction d'une structure de réseau social. Toutefois, suite aux travaux précurseurs de sociologues des années soixante, tels que ceux de Milgram (1967), il est devenu clair ces dernières années qu'une grande partie des réseaux d'interactions sociaux et biologiques, et même quelques réseaux technologiques, possèdent des propriétés particulières, et partiellement inattendues, qui les distinguent de graphes réguliers ou aléatoires. Entre autres, ils affichent en général une distribution du degré relativement large ainsi qu'une structure de "petit-monde". Grossièrement parlant, un graphe "petit-monde" est un réseau où tout individu se trouve relativement près de tout autre individu en termes de distance sociale, une propriété également présente dans les graphes aléatoires mais absente des grilles régulières. Par contre, les réseaux "petit-monde" ont, contrairement aux graphes aléatoires, une certaine structure de localité, mesurée par exemple par une quantité appelée le "coefficient de clustering". Dans le même esprit, plusieurs situations réelles de conflit en économie et sociologie ne sont pas bien décrites ni par des positions géographiquement fixes des individus en grilles régulières, ni par des graphes aléatoires. De plus, il est bien connu que la structure même d'un réseau peut passablement influencer des phénomènes dynamiques tels que la manière qu'a une maladie de se répandre à travers une population, ou encore la façon dont des idées ou une information s'y propagent. Ainsi, durant cette dernière décennie, l'attention de la recherche s'est tout naturellement déplacée des graphes aléatoires et réguliers vers de meilleurs modèles de structure d'interactions sociales. L'objectif principal de ce travail est de découvrir si la structure sous-jacente de graphe de vrais réseaux sociaux peut fournir des explications quant aux raisons pour lesquelles on trouve, chez certains groupes d'êtres humains ou d'animaux, des niveaux de coopération supérieurs à ce qui est prescrit par la théorie classique des jeux. Dans l'optique d'atteindre ce but, je commence par étudier un véritable réseau de collaborations scientifiques et, en utilisant diverses mesures statistiques, je mets en évidence la manière dont il diffère de réseaux biologiques ou technologiques. De plus, j'extrais et je décris sa structure de communautés en tenant compte de l'intensité d'une collaboration. Finalement, j'examine l'évolution temporelle du réseau depuis son origine jusqu'à son état en 2006, date à laquelle l'étude a été effectuée, en suggérant également une vue effective du réseau par opposition à une vue historique. Par la suite, je combine la théorie évolutionnaire des jeux avec des réseaux comprenant plusieurs modèles et le réseau de collaboration susmentionné, afin de déterminer les propriétés structurelles utiles à la promotion de la coopération et les mécanismes responsables du maintien de celle-ci. Je mets en évidence le fait que, pour ne pas succomber à la défection, les coopérateurs exploitent dans la mesure du possible l'hétérogénéité des réseaux sociaux en termes de degré ainsi que la structure de communautés sous-jacente de ces mêmes réseaux. Finalement, je montre que le niveau de coopération et sa stabilité dépendent non seulement du jeu joué, mais aussi des règles de la dynamique évolutionnaire utilisées et du calcul du bénéfice d'un individu.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec près de 33 millions de personnes qui vivent avec le VIH et 2,7 millions de nouvelles infections en 2007, l’épidémie de VIH continue de représenter une menace majeure pour la santé mondiale. Bien que les engagements politiques et fi nanciers et les activités des pays aient permis d’élargir l’accès aux services ces dernières années, le nombre réel de nouvelles infections demeure élevé et continue de dépasser l’augmentation annuelle du nombre de patients qui reçoivent un traitement. Le rapport de situation 2009 donne des informations actualisées sur les progrès accomplis pour étendre les interventions prioritaires du secteur de la santé en matière de prévention, de traitement et de soins du VIH en 2008 en vue de l’accès universel, objectif adopté par la communauté internationale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'étude a pour objectif de mettre en évidence les effets d'une intervention précoce inspirée des thérapies en Guidance Interactive sur la qualité de l'attachement ainsi que sur la réactivité neuroendocrinienne de stress chez des grands prématurés âgés de 12 mois ainsi que chez leurs mères. La population étudiée comprend 48 grands prématurés (<33 semaines de gestation) et leurs mères. Un programme d'intervention précoce a été proposé aléatoirement à la moitié des dyades incluses dans l'étude. Des mesures de cortisol salivaire ont été effectuées à 12 mois lors d'un épisode de stress modéré (la Situation Étrange) tant chez la mère que chez l'enfant. Les mères ayant bénéficié de l'intervention précoce montrent des taux de cortisol plus élevés que celles n'ayant pas bénéficié de l'intervention. Les auteurs font l'hypothèse que ces mères ont pu développer leur sensibilité envers leur enfant et se montrent, par conséquent, plus concernées lors de l'épisode de stress modéré. The present project aims to assess the effects of an early intervention inspired from Interactive Guidance therapy, on later attachment quality and stress reactivity of prematurely born infants and their mothers. The studied population contends 48 preterm born infants (< 33 weeks og gestational age). Half of the dyads receive an intervention program aiming at promoting the parents' responsivity-sensitivity to infant's cues. Infant's and mother's stress reactivity (salivary cortisol) to mild stressors (Strange Situation) will be assessed at 12 months. Mothers with intervention program show higher cortisol levels than the others. The authors postulate that these mothers enhance their caregiving quality and, subsequently, are more prone to be sensitive to infant's cues and to be concerned during the mild stress episode.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte: la planification infirmière de sortie des personnes âgées est une composante importante des soins pour assurer une transition optimale entre l'hôpital et la maison. Beaucoup d'événements indésirables peuvent survenir après la sortie de l'hôpital. Dans une perspective de système de santé, les facteurs qui augmentent ce risque incluent un nombre croissant de patients âgés, l'augmentation de la complexité des soins nécessitant une meilleure coordination des soins après la sortie, ainsi qu'une augmentation de la pression financière. Objectif: évaluer si les interventions infirmières liées à la planification de sortie chez les personnes âgées et leurs proches aidants sont prédictives de leur perception d'être prêts pour le départ, du niveau d'anxiété du patient le jour de la sortie de l'hôpital et du nombre de recours non programmé aux services de santé durant les trente jours après la sortie. Méthode: le devis est prédictif corrélationnel avec un échantillon de convenance de 235 patients. Les patients âgés de 65 ans de quatre unités d'hôpitaux dans le canton de Vaud en Suisse ont été recrutés entre novembre 2011 et octobre 2012. Les types et les niveaux d'interventions infirmières ont été extraits des dossiers de soins et analysés selon les composantes du modèle de Naylor. La perception d'être prêt pour la sortie et l'anxiété ont été mesurées un jour avant la sortie en utilisant l'échelle de perception d'être prêt pour la sortie et l'échelle Hospital Anxiety and Depression. Un mois après la sortie, un entretien téléphonique a été mené pour évaluer le recours non programmé aux services de santé durant cette période. Des analyses descriptives et un modèle randomisé à deux niveaux ont été utilisés pour analyser les données. Résultats: peu de patients ont reçu une planification globale de sortie. L'intervention la plus fréquente était la coordination (M = 55,0/100). et la moins fréquente était la participation du patient à la planification de sortie (M = 16,1/100). Contrairement aux hypothèses formulées, les patients ayant bénéficié d'un plus grand nombre d'interventions infirmières de préparation à la sortie ont un niveau moins élevé de perception d'être prêt pour le départ (B = -0,3, p < 0,05, IC 95% [-0,57, -0,11]); le niveau d'anxiété n'est pas associé à la planification de sortie (r = -0,21, p <0,01) et la présence de troubles cognitifs est le seul facteur prédictif d'une réhospitalisation dans les 30 jours après la sortie de l'hôpital ( OR = 1,50, p = 0,04, IC 95% [1,02, 2,22]). Discussion: en se focalisant sur chaque intervention de la planification de sortie, cette étude permet une meilleure compréhension du processus de soins infirmiers actuellement en cours dans les hôpitaux vaudois. Elle met en lumière les lacunes entre les pratiques actuelles et celles de pratiques exemplaires donnant ainsi une orientation pour des changements dans la pratique clinique et des recherches ultérieures. - Background: Nursing discharge planning in elderly patients is an important component of care to ensure optimal transition from hospital to home. Many adverse events may occur after hospital discharge. From a health care system perspective, contributing factors that increase the risk of these adverse events include a growing number of elderly patients, increased complexity of care requiring better care coordination after discharge, as well as increased financial pressure. Aim: To investigate whether older medical inpatients who receive comprehensive discharge planning interventions a) feel more ready for hospital discharge, b) have reduced anxiety at the time of discharge, c) have lower health care utilization after discharge compared to those who receive less comprehensive interventions. Methods: Using a predictive correlational design, a convenience sample of 235 patients was recruited. Patients aged 65 and older from 4 units of hospitals in the canton of Vaud in Switzerland were enrolled between November 2011 and October 2012. Types and level of interventions were extracted from the medical charts and analyzed according to the components of Naylor's model. Discharge readiness and anxiety were measured one day before discharge using the Readiness for Hospital Discharge Scale and the Hospital Anxiety and Depression scale. A telephone interview was conducted one month after hospital discharge to asses unplanned health services utilization during this follow-up period. Descriptive analyses and a two- level random model were used for statistical analyses. Results: Few patients received comprehensive discharge planning interventions. The most frequent intervention was Coordination (M = 55,0/100) and the least common was Patient participation in the discharge planning (M = 16,1/100). Contrary to our hypotheses, patients who received more nursing discharge interventions were significantly less ready to go home (B = -0,3, p < 0,05, IC 95% [-0,57, -0,11]); their anxiety level was not associated with their readiness for hospital discharge (r = -0,21, p <0,01) and cognitive impairment was the only factor that predicted rehospitalization within 30 days after discharge ( OR = 1,50, p = 0,04, IC 95% [1,02, 2,22]). Discussion: By focusing on each component of the discharge planning, this study provides a greater and more detailed insight on the usual nursing process currently performed in medical inpatients units. Results identified several gaps between current and Best practices, providing guidance to changes in clinical practice and further research.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le modèle développé à l'Institut universitaire dedecine sociale et préventive de Lausanne utilise un programme informatique pour simuler les mouvements d'entrées et de sorties des hôpitaux de soins généraux. Cette simulation se fonde sur les données récoltées de routine dans les hôpitaux; elle tient notamment compte de certaines variations journalières et saisonnières, du nombre d'entrées, ainsi que du "Case-Mix" de l'hôpital, c'est-à-dire de la répartition des cas selon les groupes cliniques et l'âge des patients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé La mobilité ne signifie plus uniquement se mouvoir d'un point à un autre ; il s'agit d'un concept lui-même en constante évolution, grâce au progrès technique et à l'innovation sociale notamment. Aujourd'hui, la recherche de la vitesse n'est plus le seul enjeu au coeur de nos préoccupations. Elle a été remplacée par un retour au voyage enrichi par l'expérience et ce quelle que soit sa durée. Cet enrichissement s'est principalement fait par le truchement des technologies de l'information et de la communication et peut prendre plusieurs formes liées aux problématiques contemporaines de la ville et du territoire. Citons comme exemple la valorisation du temps de déplacement, grâce à un meilleur accès à l'information (travail, réseaux sociaux, etc.) et à la recherche d'une plus grande cohérence entre l'acte de se mouvoir et l'environnement proche ou lointain. Cette « recontextualisation » du mouvement nous interpelle dans notre rapport à l'espace et nous donne également des pistes pour repenser le métier d'urbaniste de la ville intelligente. Abstract Mobility issues do not only involve the act of moving nowadays. The concept itself evolves continuously thanks to technological and social innovations. The main stakes do not focus anymore on improving speed, but on enriching the experience of travelling, even in the case of short trips. One of the main factors that fosters this evolution is the progressive adoption of information and communication technologies that help to reshape the issues of contemporary cities. For example, the quality of travel time has improved thanks to the ubiquitous accessibility to information, and by offering a better coherence between the trip and the immediate social environment. The "recontextualisation" of everyday activities (working, interacting, etc.) challenges the relationship individuals have with space and offers many clues in regard to the required skills that urban planners and designers of the smart city should possess.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: Oseltamivir phosphate (OP), the prodrug of oseltamivir carboxylate (OC; active metabolite), is marketed since 10 years for the treatment of seasonal influenza flu. It has recently received renewed attention because of the threat of avian flu H5N1 in 2006-7 and the 2009-10 A/H1N1 pandemic. However, relatively few studies have been published on OP and OC clinical pharmacokinetics. The disposition of OC and the dosage adaptation of OP in specific populations, such as young children or patients undergoing extrarenal epuration, have also received poor attention. An analytical method was thus developed to assess OP and OC plasma concentrations in patients receiving OP and presenting with comorbidities or requiring intensive care. Methods: A high performance liquid chromatography coupled to tandem mass spectrometry method (HPLC-MS/MS) requiring 100-µL aliquot of plasma for quantification within 6 min of OP and OC was developed. A combination of protein precipitation with acetonitrile, followed by dilution of supernant in suitable buffered solvent was used as an extraction procedure. After reverse phase chromatographic separation, quantification was performed by electro-spray ionization-triple quadrupole mass spectrometry. Deuterated isotopic compounds of OP and OC were used as internal standards. Results: The method is sensitive (lower limit of quantification: 5 ng/mL for OP and OC), accurate (intra-/inter-assay bias for OP and OC: 8.5%/5.5% and 3.7/0.7%, respectively) and precise (intra-/inter-assay CV%: 5.2%/6.5% and 6.3%/9.2%, respectively) over the clinically relevant concentration range (upper limits of quantification 5000 ng/mL). Of importance, OP, as in other previous reports, was found not to be stable ex vivo in plasma on standard anticoagulants (i.e. EDTA, heparin or citrate). This poor stability of OP has been prevented by collecting blood samples on commercial fluoride/oxalate tubes. Conclusions: This new simple, rapid and robust HPLC-MS/MS assay for quantification of OP and OC plasma concentrations offers an efficient tool for concentration monitoring of OC. Its exposure can probably be controlled with sufficient accuracy by thorough dosage adjustment according to patient characteristics (e.g. renal clearance). The usefulness of systematic therapeutic drug monitoring in patients appears therefore questionable. However, pharmacokinetic studies are still needed to extend knowledge to particular subgroups of patients or dosage regimens.

Relevância:

10.00% 10.00%

Publicador: