924 resultados para Structure d


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tagatose-1,6-biphosphate aldolase de Streptococcus pyogenes est une aldolase de classe I qui fait montre d'un remarquable manque de spécificité vis à vis de ses substrats. En effet, elle catalyse le clivage réversible du tagatose-1,6-biphosphate (TBP), mais également du fructose-1,6-biphosphate (FBP), du sorbose-1,6-biphosphate et du psicose-1,6-biphosphate, quatre stéréoisomères, en dihydroxyacétone phosphate (DHAP) et en glycéraldéhyde-3-phosphate (G3P). Afin de mettre à jour les caractéristiques du mécanisme enzymatique, une étude structurale de la TBP aldolase de S. pyogenes, un pathogène humain extrêmement versatile, a été entreprise. Elle a permis la résolution de la structure native et en complexe avec le DHAP, a respectivement 1.87 et 1.92 Å de résolution. Ces mêmes structures ont permis de se représenter plus clairement le site actif de l'enzyme en général, et les résidus catalytiques en particulier. Le trempage des cristaux de TBP aldolase dans une solution saturante de DHAP a en outre permis de piéger un authentique intermédiaire iminium, ainsi que sa géométrie particulière en atteste. Des expériences d'échange de proton, entreprises afin d'évaluer le stéréoisomérisme du transfert de proton catalytique, ont également permis de faire une intéressante découverte : la TBP aldolase ne peut déprotoner le coté pro-R du C3 du DHAP, mais peut le protonner. Ce résultat, ainsi que la comparaison de la structure du complexe TBP aldolase-DHAP avec la structure du complexe FBP aldolase de muscle de lapin- DHAP, pointe vers un isomérisme cis-trans autour du lien C2-C3 de la base de Schiff formée avec le DHAP. De plus, la résolution de ces deux structures a permis de mettre en évidence trois régions très mobiles de la protéine, ce qui pourrait être relié au rôle postulé de son isozyme chez S. pyogenes dans la régulation de l’expression génétique et de la virulence de la bactérie. La cristallographie par rayons X et la cinétique enzymatique ont ainsi permis d'avancer dans l'élucidation du mécanisme et des propriétés structurales de cette enzyme aux caractéristiques particulières.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Rapport de stage présenté à la Faculté des sciences infirmières en vue de l’obtention du grade de M.S. ès sciences (M.Sc.) en sciences infirmières option administration

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The role of metal ions in determining the solution conformation of the Holliday junction is well established, but to date the picture of metal ion binding from structural studies of the four-way DNA junction is very incomplete. Here we present two refined structures of the Holliday junction formed by the sequence d(TCGGTACCGA) in the presence of Na+ and Ca2+, and separately with Sr2+ to resolutions of 1.85 Angstrom and 1.65 Angstrom, respectively. This sequence includes the ACC core found to promote spontaneous junction formation, but its structure has not previously been reported. Almost complete hydration spheres can be defined for each metal cation. The Na+ sites, the most convincing observation of such sites in junctions to date, are one on either face of the junction crossover region, and stabilise the ordered hydration inside the junction arms. The four Ca2+ sites in the same structure are at the CG/CG steps in the minor groove. The Sr2+ ions occupy the TC/AG, GG/CC, and TA/TA sites in the minor groove, giving ten positions forming two spines of ions, spiralling through the minor grooves within each arm of the stacked-X structure. The two structures were solved in the two different C2 lattices previously observed, with the Sr2+ derivative crystallising in the more highly symmetrical form with two-fold symmetry at its centre. Both structures show an opening of the minor groove face of the junction of 8.4degrees in the Ca2+ and Na+ containing structure, and 13.4degrees in the Sr2+ containing structure. The crossover angles at the junction are 39.3degrees and 43.3degrees, respectively. In addition to this, a relative shift in the base pair stack alignment of the arms of 2.3 Angstrom is observed for the Sr2+ containing structure only. Overall these results provide an insight into the so-far elusive stabilising ion structure for the DNA Holliday junction. (C) 2003 Elsevier Science Ltd. All rights reserved.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

The tetrachlorocuprate(II) ion can crystallize in two different structures with the piperazinium dication (pipzH(2)). Both structures contain discrete CuCl42- species. A yellow compound (pipzH(2))[CuCl4]. 2H(2)O (1) is monoclinic (C2/c, Z = 4, a = 10.538(3) Angstrom, b = 7.4312(5) Angstrom, c = 17.281(4) Angstrom, beta = 111.900(10)degrees) and contains the CuCl42- ion as a distorted tetrahedron. A green compound (pipzH(2))(2)[CuCl4]. Cl-2. 3H(2)O (2) is triclinic (P (1) over bar, Z = 2, a = 9.264(3) Angstrom, b = 10.447(2) Angstrom, c = 11.366(2) Angstrom, alpha = 68.38 degrees, beta = 82.86(2)degrees, gamma = 83.05(2)degrees) and contains the CuCl42- ion with a square planar geometry. This latter compound shows thermo/photochromism, changing from green to yellow upon heating or laser irradiation.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Résumé La structure, ou l'architecture, des êtres vivants définit le cadre dans lequel la physique de la vie s'accomplit. La connaissance de cette structure dans ses moindres détails est un but essentiel de la biologie. Son étude est toutefois entravée par des limitations techniques. Malgré son potentiel théorique, la microscopie électronique n'atteint pas une résolution atomique lorsqu'elle est appliquée ä la matièxe biologique. Cela est dû en grande partie au fait qu'elle contient beaucoup d'eau qui ne résiste pas au vide du microscope. Elle doit donc être déshydratée avant d'être introduite dans un microscope conventionnel. Des artéfacts d'agrégation en découlent inévitablement. La cryo-microscopie électronique des sections vitreuses (CEMOVIS) a ëté développée afin de résoudre cela. Les spécimens sont vitrifiés, c.-à-d. que leur eau est immobilisée sans cristalliser par le froid. Ils sont ensuite coupés en sections ultrafines et celles-ci sont observées à basse température. Les spécimens sont donc observés sous forme hydratée et non fixée; ils sont proches de leur état natif. Durant longtemps, CEMOVIS était très difficile à exécuter mais ce n'est plus le cas. Durant cette thèse, CEMOVIS a été appliqué à différents spécimens. La synapse du système nerveux central a été étudiée. La présence dans la fente synaptique d'une forte densité de molécules organisées de manière périodique a été démontrée. Des particules luminales ont été trouvées dans Ies microtubules cérébraux. Les microtubules ont servi d'objets-test et ont permis de démontrer que des détails moléculaires de l'ordre du nm sont préservés. La compréhension de la structure de l'enveloppe cellulaire des bactéries Grampositives aété améliorée. Nos observations ont abouti à l'élaboration d'un nouveau modèle hypothétique de la synthèse de la paroi. Nous avons aussi focalisé notre attention sur le nucléoïde bactérien et cela a suscité un modèle de la fonction des différents états structuraux du nucléoïde. En conclusion, cette thèse a démontré que CEMOVIS est une excellente méthode poux étudier la structure d'échantillons biologiques à haute résolution. L'étude de la structure de divers aspects des êtres vivants a évoqué des hypothèses quant à la compréhension de leur fonctionnement. Summary The structure, or the architecture, of living beings defines the framework in which the physics of life takes place. Understanding it in its finest details is an essential goal of biology. Its study is however hampered by technical limitations. Despite its theoretical potential, electron microscopy cannot resolve individual atoms in biological matter. This is in great part due to the fact. that it contains a lot of water that cannot stand the vacuum of the microscope. It must therefore be dehydrated before being introduced in a conventional mìcroscope. Aggregation artefacts unavoidably happen. Cryo-electron microscopy of vitreous sections (CEMOVIS) has been developed to solve this problem. Specimens are vitrified, i.e. they are rapidly cooled and their water is immobilised without crystallising by the cold. They are then. sectioned in ultrathin slices, which are observed at low temperatures. Specimens are therefore observed in hydrated and unfixed form; they are close to their native state. For a long time, CEMOVIS was extremely tedious but this is not the case anymore. During this thesis, CEMOVIS was applied to different specimens. Synapse of central nervous system was studied. A high density of periodically-organised molecules was shown in the synaptic cleft. Luminal particles were found in brain microtubules. Microtubules, used as test specimen, permitted to demonstrate that molecular details of the order of nm .are preserved. The understanding of the structure of cell envelope of Gram-positive bacteria was improved. Our observations led to the elaboration of a new hypothetic model of cell wall synthesis. We also focused our attention on bacterial nucleoids and this also gave rise to a functional model of nucleoid structural states. In conclusion, this thesis demonstrated that CEMOVIS is an excellent method for studying the structure of bìologìcal specimens at high resolution. The study of the structure of various aspects of living beings evoked hypothesis for their functioning.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Les logiciels utilisés sont Splus et R.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Arabinogalactan proteins (AGPs) are proteoglycans of higher plants, which are implicated in growth and development. We recently have shown that two AGPs, NaAGP1 (from Nicotiana alata styles) and PcAGP1 (from Pyrus communis cell suspension culture), are modified by the addition of a glycosylphosphatidylinositol (GPI) anchor. However, paradoxically, both AGPs were buffer soluble rather than membrane associated. We now show that pear suspension cultured cells also contain membrane-bound GPI-anchored AGPs. This GPI anchor has the minimal core oligosaccharide structure, d-Manα(1–2)-d-Manα(1–6)-d-Manα(1–4)-d-GlcN-inositol, which is consistent with those found in animals, protozoa, and yeast, but with a partial β(1–4)-galactosyl substitution of the 6-linked Man residue, and has a phosphoceramide lipid composed primarily of phytosphingosine and tetracosanoic acid. The secreted form of PcAGP1 contains a truncated GPI lacking the phosphoceramide moiety, suggesting that it is released from the membrane by the action of a phospholipase D. The implications of these findings are discussed in relation to the potential mechanisms by which GPI-anchored AGPs may be involved in signal transduction pathways.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The low temperature electronic spectrum of Cu(II) doped Cs2ZrCl6 is reported. It is found that Cu(II) is incorporated as the square planar copper tetrachloride ion, CuCl42-, which substitutes at the Zr(IV) site in the Cs2ZrCl6 lattice. There is a complete absence of axial coordination. The optical spectrum shows vibronic structure with peak widths as small as 8 cm(-1), far narrower than previously seen for this ion. The energy of the observed transitions and the Franck-Condon intensity pattern suggest that there is a substantial relaxation of the host lattice about the impurity ion. The relative intensity of the magnetic dipole component of the bands appears to be considerably greater than for pure copper(II) compounds containing the CuCl42- ion. (C) 1998 Elsevier Science B.V. All rights reserved.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Hyperspectral remote sensing exploits the electromagnetic scattering patterns of the different materials at specific wavelengths [2, 3]. Hyperspectral sensors have been developed to sample the scattered portion of the electromagnetic spectrum extending from the visible region through the near-infrared and mid-infrared, in hundreds of narrow contiguous bands [4, 5]. The number and variety of potential civilian and military applications of hyperspectral remote sensing is enormous [6, 7]. Very often, the resolution cell corresponding to a single pixel in an image contains several substances (endmembers) [4]. In this situation, the scattered energy is a mixing of the endmember spectra. A challenging task underlying many hyperspectral imagery applications is then decomposing a mixed pixel into a collection of reflectance spectra, called endmember signatures, and the corresponding abundance fractions [8–10]. Depending on the mixing scales at each pixel, the observed mixture is either linear or nonlinear [11, 12]. Linear mixing model holds approximately when the mixing scale is macroscopic [13] and there is negligible interaction among distinct endmembers [3, 14]. If, however, the mixing scale is microscopic (or intimate mixtures) [15, 16] and the incident solar radiation is scattered by the scene through multiple bounces involving several endmembers [17], the linear model is no longer accurate. Linear spectral unmixing has been intensively researched in the last years [9, 10, 12, 18–21]. It considers that a mixed pixel is a linear combination of endmember signatures weighted by the correspondent abundance fractions. Under this model, and assuming that the number of substances and their reflectance spectra are known, hyperspectral unmixing is a linear problem for which many solutions have been proposed (e.g., maximum likelihood estimation [8], spectral signature matching [22], spectral angle mapper [23], subspace projection methods [24,25], and constrained least squares [26]). In most cases, the number of substances and their reflectances are not known and, then, hyperspectral unmixing falls into the class of blind source separation problems [27]. Independent component analysis (ICA) has recently been proposed as a tool to blindly unmix hyperspectral data [28–31]. ICA is based on the assumption of mutually independent sources (abundance fractions), which is not the case of hyperspectral data, since the sum of abundance fractions is constant, implying statistical dependence among them. This dependence compromises ICA applicability to hyperspectral images as shown in Refs. [21, 32]. In fact, ICA finds the endmember signatures by multiplying the spectral vectors with an unmixing matrix, which minimizes the mutual information among sources. If sources are independent, ICA provides the correct unmixing, since the minimum of the mutual information is obtained only when sources are independent. This is no longer true for dependent abundance fractions. Nevertheless, some endmembers may be approximately unmixed. These aspects are addressed in Ref. [33]. Under the linear mixing model, the observations from a scene are in a simplex whose vertices correspond to the endmembers. Several approaches [34–36] have exploited this geometric feature of hyperspectral mixtures [35]. Minimum volume transform (MVT) algorithm [36] determines the simplex of minimum volume containing the data. The method presented in Ref. [37] is also of MVT type but, by introducing the notion of bundles, it takes into account the endmember variability usually present in hyperspectral mixtures. The MVT type approaches are complex from the computational point of view. Usually, these algorithms find in the first place the convex hull defined by the observed data and then fit a minimum volume simplex to it. For example, the gift wrapping algorithm [38] computes the convex hull of n data points in a d-dimensional space with a computational complexity of O(nbd=2cþ1), where bxc is the highest integer lower or equal than x and n is the number of samples. The complexity of the method presented in Ref. [37] is even higher, since the temperature of the simulated annealing algorithm used shall follow a log( ) law [39] to assure convergence (in probability) to the desired solution. Aiming at a lower computational complexity, some algorithms such as the pixel purity index (PPI) [35] and the N-FINDR [40] still find the minimum volume simplex containing the data cloud, but they assume the presence of at least one pure pixel of each endmember in the data. This is a strong requisite that may not hold in some data sets. In any case, these algorithms find the set of most pure pixels in the data. PPI algorithm uses the minimum noise fraction (MNF) [41] as a preprocessing step to reduce dimensionality and to improve the signal-to-noise ratio (SNR). The algorithm then projects every spectral vector onto skewers (large number of random vectors) [35, 42,43]. The points corresponding to extremes, for each skewer direction, are stored. A cumulative account records the number of times each pixel (i.e., a given spectral vector) is found to be an extreme. The pixels with the highest scores are the purest ones. N-FINDR algorithm [40] is based on the fact that in p spectral dimensions, the p-volume defined by a simplex formed by the purest pixels is larger than any other volume defined by any other combination of pixels. This algorithm finds the set of pixels defining the largest volume by inflating a simplex inside the data. ORA SIS [44, 45] is a hyperspectral framework developed by the U.S. Naval Research Laboratory consisting of several algorithms organized in six modules: exemplar selector, adaptative learner, demixer, knowledge base or spectral library, and spatial postrocessor. The first step consists in flat-fielding the spectra. Next, the exemplar selection module is used to select spectral vectors that best represent the smaller convex cone containing the data. The other pixels are rejected when the spectral angle distance (SAD) is less than a given thresh old. The procedure finds the basis for a subspace of a lower dimension using a modified Gram–Schmidt orthogonalizati on. The selected vectors are then projected onto this subspace and a simplex is found by an MV T pro cess. ORA SIS is oriented to real-time target detection from uncrewed air vehicles using hyperspectral data [46]. In this chapter we develop a new algorithm to unmix linear mixtures of endmember spectra. First, the algorithm determines the number of endmembers and the signal subspace using a newly developed concept [47, 48]. Second, the algorithm extracts the most pure pixels present in the data. Unlike other methods, this algorithm is completely automatic and unsupervised. To estimate the number of endmembers and the signal subspace in hyperspectral linear mixtures, the proposed scheme begins by estimating sign al and noise correlation matrices. The latter is based on multiple regression theory. The signal subspace is then identified by selectin g the set of signal eigenvalue s that best represents the data, in the least-square sense [48,49 ], we note, however, that VCA works with projected and with unprojected data. The extraction of the end members exploits two facts: (1) the endmembers are the vertices of a simplex and (2) the affine transformation of a simplex is also a simplex. As PPI and N-FIND R algorithms, VCA also assumes the presence of pure pixels in the data. The algorithm iteratively projects data on to a direction orthogonal to the subspace spanned by the endmembers already determined. The new end member signature corresponds to the extreme of the projection. The algorithm iterates until all end members are exhausted. VCA performs much better than PPI and better than or comparable to N-FI NDR; yet it has a computational complexity between on e and two orders of magnitude lower than N-FINDR. The chapter is structure d as follows. Section 19.2 describes the fundamentals of the proposed method. Section 19.3 and Section 19.4 evaluate the proposed algorithm using simulated and real data, respectively. Section 19.5 presents some concluding remarks.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Introduction: Des unités d'attente de placement ont vu le jour pour¦répondre à la pénurie de lits d'hébergement de long séjour dans le¦Canton de Vaud et désengorger les hôpitaux aigus. Pour les patients¦qui y sont admis, la décision de placement intervient au sortir d'une¦hospitalisation aiguë, laissant peu de temps à la personne pour¦cheminer face à cette décision. Cette étude pilote vise à investiguer¦le degré de sérénité de ces patients face à l'hébergement de longue¦durée et déterminer s'il existe une relation avec la durée d'attente ou¦le décès en unité d'attente.¦Population et méthode: Personnes âgées (N = 78) admises dans¦une structure d'attente et préparation à l'hébergement de longue¦durée après un séjour hospitalier aigu. Des données démographiques,¦fonctionnelles, cognitives et affectives ont été récoltées dans les 4¦semaines après l'admission. La sérénité ressentie face à l'hébergement¦longue durée a été évaluée à l'aide d'une échelle de type Likert à¦quatre niveaux (pas du tout/plutôt pas/plutôt/tout à fait serein).¦Résultats: Les patients étaient âgés de 85.6 ans en moyenne, 74%¦(58/78) étaient des femmes, 47% (37/78) avaient des troubles cognitifs¦et 35% (27/78) des troubles dépressifs. Globalement 24% (19/78)¦des patients se déclaraient peu ou pas du tout sereins face au¦placement. Comparés aux patients sereins, ces 19 patients étaient¦significativement (p <.05) moins âgés (83.2 ± 1.0 vs 86.8 ± 6.5 ans),¦plus dépendants dans les activités de la vie quotidienne (BAVQ 2.5 ±¦1.7 vs 3.5 ± 1.6), plus déprimés (GDS 15-items 7.0 ± 3.5 vs 4.4 ± 3.0),¦et avaient plus souvent des antécédents de chutes (95% vs 75%). En¦analyse multivariée, le manque de sérénité restait significativement¦associé à une dépendance plus élevée dans les BAVQ, à un score¦GDS plus élevé ainsi qu'aux antécédents de chute. Il n'y avait pas ddifférence significative en termes de durée moyenne de séjour avant le¦placement (90.0 ± 57.3j vs 87.8 ± 73.2, médianes 85 vs 57, P = .45), ni¦de mortalité dans l'unité d'attente (5% vs 5%) entre les deux groupes¦de patients.¦Conclusion: Près d'un quart des patients en unité d'attente se¦déclarent peu sereins face à la perspective du placement. Ces patients¦sont plus dépendants, ont des antécédents de chutes et sont plus¦déprimés, ce qui souligne l'importance d'une identification précoce de¦ces patients afin de leur offrir un soutien dans cette période difficile de¦transition dans leur parcours de vie.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Un premier article présentait la réalisation autonome des activités de la vie quotidienne (AVQ) dans la démence. Cette réalisation est constituée de deux phases : l'articulation du sujet avec l'objectif et le déroulement proprement dit. Dans ce second article, nous présentons une typologie des actions-dispersions, précisant la deuxième phase. Considérant le sujet autonome en lien intentionnel avec l'activité, nous définissons les dispersions comme un désengagement de l'activité. L'analyse des dispersions vise à comprendre plus exactement et de façon différenciée la réalisation des AVQ en cas de démence. Notre approche anthropologique, qui intègre les dimensions psychologiques et comportementales, se démarque des approches comportementaliste et neuropsychologique, en ce sens qu'elle permet d'intégrer les conduites dans leur ordre de réalité et au sein de la structure d'ensemble de l'activité. A partir d'observations visant l'intentionnalité du sujet, nous avons dégagé des types de dispersion, leurs origines - dans le sens de moment d'apparition - et leurs formes. Nous illustrons cette typologie par des exemples extraits d'une prise en soin. Les deux articles se complètent pour présenter un modèle fonctionnel définissant la réalisation des AVQ en cas de démence. Il s'agit d'un schème théorique permettant d'interpréter et d'anticiper le fonctionnement du sujet dément afin de le guider, tout en lui laissant une marge de maîtrise de son milieu quotidien.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Abstract The object of game theory lies in the analysis of situations where different social actors have conflicting requirements and where their individual decisions will all influence the global outcome. In this framework, several games have been invented to capture the essence of various dilemmas encountered in many common important socio-economic situations. Even though these games often succeed in helping us understand human or animal behavior in interactive settings, some experiments have shown that people tend to cooperate with each other in situations for which classical game theory strongly recommends them to do the exact opposite. Several mechanisms have been invoked to try to explain the emergence of this unexpected cooperative attitude. Among them, repeated interaction, reputation, and belonging to a recognizable group have often been mentioned. However, the work of Nowak and May (1992) showed that the simple fact of arranging the players according to a spatial structure and only allowing them to interact with their immediate neighbors is sufficient to sustain a certain amount of cooperation even when the game is played anonymously and without repetition. Nowak and May's study and much of the following work was based on regular structures such as two-dimensional grids. Axelrod et al. (2002) showed that by randomizing the choice of neighbors, i.e. by actually giving up a strictly local geographical structure, cooperation can still emerge, provided that the interaction patterns remain stable in time. This is a first step towards a social network structure. However, following pioneering work by sociologists in the sixties such as that of Milgram (1967), in the last few years it has become apparent that many social and biological interaction networks, and even some technological networks, have particular, and partly unexpected, properties that set them apart from regular or random graphs. Among other things, they usually display broad degree distributions, and show small-world topological structure. Roughly speaking, a small-world graph is a network where any individual is relatively close, in terms of social ties, to any other individual, a property also found in random graphs but not in regular lattices. However, in contrast with random graphs, small-world networks also have a certain amount of local structure, as measured, for instance, by a quantity called the clustering coefficient. In the same vein, many real conflicting situations in economy and sociology are not well described neither by a fixed geographical position of the individuals in a regular lattice, nor by a random graph. Furthermore, it is a known fact that network structure can highly influence dynamical phenomena such as the way diseases spread across a population and ideas or information get transmitted. Therefore, in the last decade, research attention has naturally shifted from random and regular graphs towards better models of social interaction structures. The primary goal of this work is to discover whether or not the underlying graph structure of real social networks could give explanations as to why one finds higher levels of cooperation in populations of human beings or animals than what is prescribed by classical game theory. To meet this objective, I start by thoroughly studying a real scientific coauthorship network and showing how it differs from biological or technological networks using divers statistical measurements. Furthermore, I extract and describe its community structure taking into account the intensity of a collaboration. Finally, I investigate the temporal evolution of the network, from its inception to its state at the time of the study in 2006, suggesting also an effective view of it as opposed to a historical one. Thereafter, I combine evolutionary game theory with several network models along with the studied coauthorship network in order to highlight which specific network properties foster cooperation and shed some light on the various mechanisms responsible for the maintenance of this same cooperation. I point out the fact that, to resist defection, cooperators take advantage, whenever possible, of the degree-heterogeneity of social networks and their underlying community structure. Finally, I show that cooperation level and stability depend not only on the game played, but also on the evolutionary dynamic rules used and the individual payoff calculations. Synopsis Le but de la théorie des jeux réside dans l'analyse de situations dans lesquelles différents acteurs sociaux, avec des objectifs souvent conflictuels, doivent individuellement prendre des décisions qui influenceront toutes le résultat global. Dans ce cadre, plusieurs jeux ont été inventés afin de saisir l'essence de divers dilemmes rencontrés dans d'importantes situations socio-économiques. Bien que ces jeux nous permettent souvent de comprendre le comportement d'êtres humains ou d'animaux en interactions, des expériences ont montré que les individus ont parfois tendance à coopérer dans des situations pour lesquelles la théorie classique des jeux prescrit de faire le contraire. Plusieurs mécanismes ont été invoqués pour tenter d'expliquer l'émergence de ce comportement coopératif inattendu. Parmi ceux-ci, la répétition des interactions, la réputation ou encore l'appartenance à des groupes reconnaissables ont souvent été mentionnés. Toutefois, les travaux de Nowak et May (1992) ont montré que le simple fait de disposer les joueurs selon une structure spatiale en leur permettant d'interagir uniquement avec leurs voisins directs est suffisant pour maintenir un certain niveau de coopération même si le jeu est joué de manière anonyme et sans répétitions. L'étude de Nowak et May, ainsi qu'un nombre substantiel de travaux qui ont suivi, étaient basés sur des structures régulières telles que des grilles à deux dimensions. Axelrod et al. (2002) ont montré qu'en randomisant le choix des voisins, i.e. en abandonnant une localisation géographique stricte, la coopération peut malgré tout émerger, pour autant que les schémas d'interactions restent stables au cours du temps. Ceci est un premier pas en direction d'une structure de réseau social. Toutefois, suite aux travaux précurseurs de sociologues des années soixante, tels que ceux de Milgram (1967), il est devenu clair ces dernières années qu'une grande partie des réseaux d'interactions sociaux et biologiques, et même quelques réseaux technologiques, possèdent des propriétés particulières, et partiellement inattendues, qui les distinguent de graphes réguliers ou aléatoires. Entre autres, ils affichent en général une distribution du degré relativement large ainsi qu'une structure de "petit-monde". Grossièrement parlant, un graphe "petit-monde" est un réseau où tout individu se trouve relativement près de tout autre individu en termes de distance sociale, une propriété également présente dans les graphes aléatoires mais absente des grilles régulières. Par contre, les réseaux "petit-monde" ont, contrairement aux graphes aléatoires, une certaine structure de localité, mesurée par exemple par une quantité appelée le "coefficient de clustering". Dans le même esprit, plusieurs situations réelles de conflit en économie et sociologie ne sont pas bien décrites ni par des positions géographiquement fixes des individus en grilles régulières, ni par des graphes aléatoires. De plus, il est bien connu que la structure même d'un réseau peut passablement influencer des phénomènes dynamiques tels que la manière qu'a une maladie de se répandre à travers une population, ou encore la façon dont des idées ou une information s'y propagent. Ainsi, durant cette dernière décennie, l'attention de la recherche s'est tout naturellement déplacée des graphes aléatoires et réguliers vers de meilleurs modèles de structure d'interactions sociales. L'objectif principal de ce travail est de découvrir si la structure sous-jacente de graphe de vrais réseaux sociaux peut fournir des explications quant aux raisons pour lesquelles on trouve, chez certains groupes d'êtres humains ou d'animaux, des niveaux de coopération supérieurs à ce qui est prescrit par la théorie classique des jeux. Dans l'optique d'atteindre ce but, je commence par étudier un véritable réseau de collaborations scientifiques et, en utilisant diverses mesures statistiques, je mets en évidence la manière dont il diffère de réseaux biologiques ou technologiques. De plus, j'extrais et je décris sa structure de communautés en tenant compte de l'intensité d'une collaboration. Finalement, j'examine l'évolution temporelle du réseau depuis son origine jusqu'à son état en 2006, date à laquelle l'étude a été effectuée, en suggérant également une vue effective du réseau par opposition à une vue historique. Par la suite, je combine la théorie évolutionnaire des jeux avec des réseaux comprenant plusieurs modèles et le réseau de collaboration susmentionné, afin de déterminer les propriétés structurelles utiles à la promotion de la coopération et les mécanismes responsables du maintien de celle-ci. Je mets en évidence le fait que, pour ne pas succomber à la défection, les coopérateurs exploitent dans la mesure du possible l'hétérogénéité des réseaux sociaux en termes de degré ainsi que la structure de communautés sous-jacente de ces mêmes réseaux. Finalement, je montre que le niveau de coopération et sa stabilité dépendent non seulement du jeu joué, mais aussi des règles de la dynamique évolutionnaire utilisées et du calcul du bénéfice d'un individu.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Introduction: Des unités d'attente de placement ont vu le jour pour¦répondre à la pénurie de lits d'hébergement de long séjour dans le¦Canton de Vaud et désengorger les hôpitaux aigus. Pour les patients¦qui y sont admis, la décision de placement intervient au sortir d'une¦hospitalisation aiguë, laissant peu de temps à la personne pour¦cheminer face à cette décision. Cette étude pilote vise à investiguer¦le degré de sérénité de ces patients face à l'hébergement de longue¦durée et déterminer s'il existe une relation avec la durée d'attente ou¦le décès en unité d'attente.¦Population et méthode: Personnes âgées (N = 78) admises dans¦une structure d'attente et préparation à l'hébergement de longue¦durée après un séjour hospitalier aigu. Des données démographiques,¦fonctionnelles, cognitives et affectives ont été récoltées dans les 4¦semaines après l'admission. La sérénité ressentie face à l'hébergement¦longue durée a été évaluée à l'aide d'une échelle de type Likert à¦quatre niveaux (pas du tout/plutôt pas/plutôt/tout à fait serein).¦Résultats: Les patients étaient âgés de 85.6 ans en moyenne, 74%¦(58/78) étaient des femmes, 47% (37/78) avaient des troubles cognitifs¦et 35% (27/78) des troubles dépressifs. Globalement 24% (19/78)¦des patients se déclaraient peu ou pas du tout sereins face au¦placement. Comparés aux patients sereins, ces 19 patients étaient¦significativement (p <.05) moins âgés (83.2 ± 1.0 vs 86.8 ± 6.5 ans),¦plus dépendants dans les activités de la vie quotidienne (BAVQ 2.5 ±¦1.7 vs 3.5 ± 1.6), plus déprimés (GDS 15-items 7.0 ± 3.5 vs 4.4 ± 3.0),¦et avaient plus souvent des antécédents de chutes (95% vs 75%). En¦analyse multivariée, le manque de sérénité restait significativement¦associé à une dépendance plus élevée dans les BAVQ, à un score¦GDS plus élevé ainsi qu'aux antécédents de chute. Il n'y avait pas ddifférence significative en termes de durée moyenne de séjour avant le¦placement (90.0 ± 57.3j vs 87.8 ± 73.2, médianes 85 vs 57, P = .45), ni¦de mortalité dans l'unité d'attente (5% vs 5%) entre les deux groupes¦de patients.¦Conclusion: Près d'un quart des patients en unité d'attente se¦déclarent peu sereins face à la perspective du placement. Ces patients¦sont plus dépendants, ont des antécédents de chutes et sont plus¦déprimés, ce qui souligne l'importance d'une identification précoce de¦ces patients afin de leur offrir un soutien dans cette période difficile de¦transition dans leur parcours de vie.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La région du Zanskar, étudiée dans le cadre de ce travail, se situe au passage entre deux domaines himalayens fortement contrastés, la Séquence Cristalline du Haut Himalaya (HHCS), composée de roches métamorphiques et l'Himalaya Tethysien (TH), composé de séries sédimentaires. La transition entre ces deux domaines est marquée par une structure tectonique majeure, la Zone de Cisaillement du Zanskar (ZSZ), au sein de laquelle on observe une augmentation extrêmement rapide, mais néanmoins graduelle, du degré du métamorphisme entre le TH et le HHCS. Il a été établi que le HHCS n'est autre que l'équivalent métamorphique des séries sédimentaires de la base du TH. C'est principalement lors d'un épisode de mise en place de nappes à vergence sudouest, entre l'Eocène moyen et l'Oligocène, que les séries sédimentaires de la base du TH ont été entraînées en profondeur où elles ont subi un métamorphisme de type barrovien. Au début du Miocène, le HHCS à été exhumé en direction du sud-ouest sous forme d'une grande nappe, délimitée a sa base par le MCT (principal chevauchement central) et à son sommet par la Zone de Cisaillement du Zanskar. L'ensemble des zones barroviennes, de la zone à biotite jusqu'à la zone à disthène, a été cisaillée par les mouvements en faille normale au sommet du HHCS et se retrouve actuellement sur une épaisseur d'environ 1 kilomètre au sein de la ZSZ. La décompression associée à l'exhumation du HHCS a provoqué la fusion partielle d'une partie du HHCS et a donné naissance à des magmas de composition leucogranitiques. Grâce à la géothermobarometrie, et connaissant la géométrie de la ZSZ, il nous a été possible de déterminer que le rejet le long de cette structure d'extension est d'au moins 35?9 kilomètres. Une série d'arguments nous permet cependant de suggérer que ce rejet aurait pu être encore bien plus important (~100km). Les données géochronologiques nous permettent de contraindre la durée des mouvements d'extension le long de la ZSZ à 2.4?0.2 Ma entre 22.2?0.2 Ma et 19.8?0.1 Ma. Ce travail apporte de nouvelles données sur les processus métamorphiques, magmatiques et tectoniques liés aux phénomènes d'extension syn-orogeniques.<br/><br/>The southeastern part of Zanskar is located at the transition between two major Himalayan domains of contrasting metamorphic grade, the High Himalayan Crystalline Sequence (HHCS) and the Tethyan Himalaya (TH). The transition between the TH and the HHCS is marked by a very rapid, although perfectly gradual, decrease in metamorphic grade, which coincides with a major tectonic structure, the Zanskar Shear Zone (ZSZ). It is now an established fact that the relation between the HHCS and the TH is not one of basement-cover type, but that the metasedimentary series of the HHCS represent the metamorphic equivalent of the lowermost sedimentary series of the TH. This transformation of sedimentary series into metamorphic rocks, and hence the differentiation between the TH and the HHCS, is the consequence of crustal thickening associated to the formation of large scale southwest vergent nappes within the Tethyan Himalaya sedimentary series. This, Middle Eocene to Oligocene, episode of crustal thickening and associated Barrovian metamorphism is followed, shortly after, by the exhumation of the HHCS as a, large scale, south-west vergent, nappe. Foreword The exhumation of the HHCS nappe is marked by the activation of two contemporaneous structures, the Main Central Thrust at its base and the Zanskar Shear Zone at its top. Extensional movements along the ZSZ, caused the Barrovian biotite to the kyanite zones to be sheared and constricted within the ~1 km thick shear zone. Decompression associated with the exhumation of the HHCS induced the formation of leucogranitic magmas through vapour-absent partial melting of the highest-grade rocks. The combination of geothermobarometric data with a geometric model of the ZSZ allowed us to constrain the net slip at the top of the HHCS to be at least 35?9 kilometres. A set of arguments however suggests that these movements might have been much more important (~ 100 km). Geochronological data coupled with structural observations constrain the duration of ductile shearing along the ZSZ to 2.4?0.2 Ma between 22.2?0.2 Ma and 19.8?0.1 Ma. This study also addresses the consequences of synorogenic extension on the metamorphic, tectonic and magmatic evolution of the upper parts of the High Himalayan Crystalline Sequence.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Le sport doit beaucoup aux dirigeants qui construisent les conditions de développement des organisations sportives (création de structure, d'événements, de modèles économiques, de nouvelles logiques de fonctionnement...). Leur univers est plus caché et moins connu que celui des très grands champions... et pourtant leur influence est déterminante pour le sport et son avenir. Cet ouvrage analyse les parcours, les pratiques de management et l'héritage de 23 grands dirigeants du sport de différentes époques (du début du XXe siècle à aujourd'hui) et de différents univers sportifs (olympisme, sport professionnel, événementiel, industrie du sport...). Comment Juan Antonio Samaranch, Jacques Rogge, Annie Courtade, Jean-Michel Aulas, Serge Blanco, Philippe Chatrier, Joseph S. Blatter, Bernie Ecclestone, Thierry Sabine, Richard Peddy... ont géré leurs parcours ? Quelles ont été les stratégies et les pratiques de management suivies ? Quelles décisions majeures ont-ils prises et pourquoi ? Finalement, quel héritage ont-ils ou laissent-ils à leur organisation et pour leur sport ? Des experts de différents pays analysent et décortiquent ici ces éléments passionnants des coulisses du sport. Cet ouvrage s'adresse aussi bien aux experts et étudiants en gestion d'entreprise et en gestion du sport, aux dirigeants sportifs qu'au grand public.