982 resultados para Conception de réseaux
Resumo:
Introduction: High-grade evidence is lacking for most therapeutic decisions in Crohn's disease. Appropriateness criteria were developed for upper gastro-intestinal, extra-intestinal manifestations and drug safety during conception, pregnancy and breastfeeding in patients with Crohn's disease, to assist the physician in clinical decision making. Methods: The European Panel on the Appropriateness of Crohn's Disease Therapy (EPACT II), a multidisciplinary international European expert panel, rated clinical scenarios based on evidence from the published literature and panelists' own clinical expertise. Median ratings (on a 9-point scale) were stratified into three categories: appropriate (7-9), uncertain (4-6 with or without disagreement) and inappropriate (1-3). Experts were also asked to rank appropriate medications by priority. Results: Proton pump inhibitors, steroids, azathioprine/6-mercaptopurine and infliximab are appropriate for upper gastro-duodenal Crohn's disease; for stenosis, endoscopic balloon dilation is the first-tine therapy, although surgery is also appropriate. Ursodeoxycholic acid is the only appropriate treatment for primary sclerosing cholangitis. Infliximab is appropriate for Pyoderma gangrenosum, ankylosing spondylitis and uveitis, steroids for Pyoderma gangrenosum and ankylosing spondylitis, adalimumab for Pyoderma gangrenosum and ankylosing spondylitis, cyclosporine-A/tacrolimus for Pyoderma gangrenosum. Mesalamine, sulfasalazine, prednisone, azathioprine/6-mercaptopurine, ciprofloxacin, and probiotics, may be administered safety during pregnancy or for patients wishing to conceive, with the exception that mate patients considering conception should avoid sulfasalazine. Metronidazol is considered safe in the 2nd and 3rd trimesters whereas infliximab is rated safe in the 1st trimester but uncertain in the 2nd and 3rd trimesters. Methotrexate is always contraindicated at conception, during pregnancy or during breastfeeding, due to its known teratogenicity. Mesalamine, prednisone, probiotics and infliximab are considered safe during breastfeeding. Conclusion: EPACT II recommendations are freely available online (www.epact.ch). The validity of these criteria should now be tested by prospective evaluation. (C) 2009 European Crohn's and Colitis Organisation. Published by Elsevier B.V. All rights reserved.
Resumo:
Résumé Les glissements de terrain représentent un des principaux risques naturels dans les régions montagneuses. En Suisse, chaque année les glissements de terrains causent des dégâts qui affectent les infrastructures et ont des coûts financiers importants. Une bonne compréhension des mécanismes des glissements peut permettre d'atténuer leur impact. Celle-ci passe notamment par la connaissance de la structure interne du glissement, la détermination de son volume et de son ou ses plans de glissement. Dans un glissement de terrain, la désorganisation et la présence de fractures dans le matériel déplacé engendre un changement des paramètres physiques et en particulier une diminution des vitesses de propagation des ondes sismiques ainsi que de la densité du matériel. Les méthodes sismiques sont de ce fait bien adaptées à l'étude des glissements de terrain. Parmi les méthodes sismiques, l'analyse de la dispersion des ondes de surface est une méthode simple à mettre en oeuvre. Elle présente l'avantage d'estimer les variations des vitesses de cisaillement avec la profondeur sans avoir spécifiquement recours à l'utilisation d'une source d'onde S et de géophones horizontaux. Sa mise en oeuvre en trois étapes implique la mesure de la dispersion des ondes de surface sur des réseaux étendus, la détermination des courbes de dispersion pour finir par l'inversion de ces courbes. Les modèles de vitesse obtenus à partir de cette procédure ne sont valides que lorsque les milieux explorés ne présentent pas de variations latérales. En pratique cette hypothèse est rarement vérifiée, notamment pour un glissement de terrain dans lequel les couches remaniées sont susceptibles de présenter de fortes hétérogénéités latérales. Pour évaluer la possibilité de déterminer des courbes de dispersion à partir de réseaux de faible extension des mesures testes ont été effectuées sur un site (Arnex, VD) équipé d'un forage. Un profil sismique de 190 m de long a été implanté dans une vallée creusée dans du calcaire et remplie par des dépôts glacio-lacustres d'une trentaine de mètres d'épaisseur. Les données acquises le long de ce profil ont confirmé que la présence de variations latérales sous le réseau de géophones affecte l'allure des courbes de dispersion jusqu'à parfois empêcher leur détermination. Pour utiliser l'analyse de la dispersion des ondes de surface sur des sites présentant des variations latérales, notre approche consiste à déterminer les courbes de dispersions pour une série de réseaux de faible extension, à inverser chacune des courbes et à interpoler les différents modèles de vitesse obtenus. Le choix de la position ainsi que de l'extension des différents réseaux de géophones est important. Il tient compte de la localisation des hétérogénéités détectées à partir de l'analyse de sismique réfraction, mais également d'anomalies d'amplitudes observées sur des cartes qui représentent dans le domaine position de tir - position du récepteur, l'amplitude mesurée pour différentes fréquences. La procédure proposée par Lin et Lin (2007) s'est avérée être une méthode efficace permettant de déterminer des courbes de dispersion à partir de réseaux de faible extension. Elle consiste à construire à partir d'un réseau de géophones et de plusieurs positions de tir un enregistrement temps-déports qui tient compte d'une large gamme de distances source-récepteur. Au moment d'assembler les différentes données une correction de phase est appliquée pour tenir compte des hétérogénéités situées entre les différents points de tir. Pour évaluer cette correction nous suggérons de calculer pour deux tir successif la densité spectrale croisée des traces de même offset: Sur le site d'Arnex, 22 courbes de dispersions ont été déterminées pour de réseaux de géophones de 10 m d'extension. Nous avons également profité du forage pour acquérir un profil de sismique verticale en ondes S. Le modèle de vitesse S déduit de l'interprétation du profil de sismique verticale est utilisé comme information à priori lors l'inversion des différentes courbes de dispersion. Finalement, le modèle en deux dimension qui a été établi grâce à l'analyse de la dispersion des ondes de surface met en évidence une structure tabulaire à trois couches dont les limites coïncident bien avec les limites lithologiques observées dans le forage. Dans celui-ci des argiles limoneuses associées à une vitesse de propagation des ondes S de l'ordre de 175 m/s surmontent vers 9 m de profondeur des dépôts de moraine argilo-sableuse caractérisés par des vitesses de propagation des ondes S de l'ordre de 300 m/s jusqu'à 14 m de profondeur et supérieur ou égal à 400 m/s entre 14 et 20 m de profondeur. Le glissement de la Grande Combe (Ballaigues, VD) se produit à l'intérieur du remplissage quaternaire d'une combe creusée dans des calcaires Portlandien. Comme dans le cas du site d'Arnex les dépôts quaternaires correspondent à des dépôts glacio-lacustres. Dans la partie supérieure la surface de glissement a été localisée à une vingtaine de mètres de profondeur au niveau de l'interface qui sépare des dépôts de moraine jurassienne et des dépôts glacio-lacustres. Au pied du glissement 14 courbes de dispersions ont été déterminées sur des réseaux de 10 m d'extension le long d'un profil de 144 m. Les courbes obtenues sont discontinues et définies pour un domaine de fréquence de 7 à 35 Hz. Grâce à l'utilisation de distances source-récepteur entre 8 et 72 m, 2 à 4 modes de propagation ont été identifiés pour chacune des courbes. Lors de l'inversion des courbes de dispersion la prise en compte des différents modes de propagation a permis d'étendre la profondeur d'investigation jusqu'à une vingtaine de mètres de profondeur. Le modèle en deux dimensions permet de distinguer 4 couches (Vs1 < 175 m/s, 175 m/s < Vs2 < 225 m/s, 225 m/s < Vs3 < 400 m/s et Vs4 >.400 m/s) qui présentent des variations d'épaisseur. Des profils de sismiques réflexion en ondes S acquis avec une source construite dans le cadre de ce travail, complètent et corroborent le modèle établi à partir de l'analyse de la dispersion des ondes de surface. Un réflecteur localisé entre 5 et 10 m de profondeur et associé à une vitesse de sommation de 180 m/s souligne notamment la géométrie de l'interface qui sépare la deuxième de la troisième couche du modèle établi à partir de l'analyse de la dispersion des ondes de surface. Abstract Landslides are one of the main natural hazards in mountainous regions. In Switzerland, landslides cause damages every year that impact infrastructures and have important financial costs. In depth understanding of sliding mechanisms may help limiting their impact. In particular, this can be achieved through a better knowledge of the internal structure of the landslide, the determination of its volume and its sliding surface or surfaces In a landslide, the disorganization and the presence of fractures in the displaced material generate a change of the physical parameters and in particular a decrease of the seismic velocities and of the material density. Therefoe, seismic methods are well adapted to the study of landslides. Among seismic methods, surface-wave dispersion analysis is a easy to implement. Through it, shearwave velocity variations with depth can be estimated without having to resort to an S-wave source and to horizontal geophones. Its 3-step implementation implies measurement of surface-wave dispersion with long arrays, determination of the dispersion curves and finally inversion of these curves. Velocity models obtained through this approach are only valid when the investigated medium does not include lateral variations. In practice, this assumption is seldom correct, in particular for landslides in which reshaped layers likely include strong lateral heterogeneities. To assess the possibility of determining dispersion curves from short array lengths we carried out tests measurements on a site (Arnex, VD) that includes a borehole. A 190 m long seismic profile was acquired in a valley carved into limestone and filled with 30 m of glacio-lacustrine sediments. The data acquired along this profile confirmed that the presence of lateral variations under the geophone array influences the dispersion-curve shape so much that it sometimes preventes the dispersion curves determination. Our approach to use the analysis of surface-wave dispersion on sites that include lateral variations consists in obtaining dispersion curves for a series of short length arrays; inverting each so obtained curve and interpolating the different obtained velocity model. The choice of the location as well as the geophone array length is important. It takes into account the location of the heterogeneities that are revealed by the seismic refraction interpretation of the data but also, the location of signal amplitude anomalies observed on maps that represent, for a given frequency, the measured amplitude in the shot position - receiver position domain. The procedure proposed by Lin and Lin (2007) turned out to be an efficient one to determine dispersion curves using short extension arrays. It consists in building a time-offset from an array of geophones with a wide offset range by gathering seismograms acquired with different source-to-receiver offsets. When assembling the different data, a phase correction is applied in order to reduce static phase error induced by lateral variation. To evaluate this correction, we suggest to calculate, for two successive shots, the cross power spectral density of common offset traces. On the Arnex site, 22 curves were determined with 10m in length geophone-arrays. We also took advantage of the borehole to acquire a S-wave vertical seismic profile. The S-wave velocity depth model derived from the vertical seismic profile interpretation is used as prior information in the inversion of the dispersion-curves. Finally a 2D velocity model was established from the analysis of the different dispersion curves. It reveals a 3-layer structure in good agreement with the observed lithologies in the borehole. In it a clay layer with a shear-wave of 175 m/s shear-wave velocity overlies a clayey-sandy till layer at 9 m depth that is characterized down to 14 m by a 300 m/s S-wave velocity; these deposits have a S-wave velocity of 400 m/s between depths of 14 to 20 m. The La Grand Combe landslide (Ballaigues, VD) occurs inside the Quaternary filling of a valley carved into Portlandien limestone. As at the Arnex site, the Quaternary deposits correspond to glaciolacustrine sediments. In the upper part of the landslide, the sliding surface is located at a depth of about 20 m that coincides with the discontinuity between Jurassian till and glacio-lacustrine deposits. At the toe of the landslide, we defined 14 dispersion curves along a 144 m long profile using 10 m long geophone arrays. The obtained curves are discontinuous and defined within a frequency range of 7 to 35 Hz. The use of a wide range of offsets (from 8 to 72 m) enabled us to determine 2 to 4 mode of propagation for each dispersion curve. Taking these higher modes into consideration for dispersion curve inversion allowed us to reach an investigation depth of about 20 m. A four layer 2D model was derived (Vs1< 175 m/s, 175 m/s <Vs2< 225 m/s, 225 m/s < Vs3 < 400 m/s, Vs4> 400 m/s) with variable layer thicknesses. S-wave seismic reflection profiles acquired with a source built as part of this work complete and the velocity model revealed by surface-wave analysis. In particular, reflector at a depth of 5 to 10 m associated with a 180 m/s stacking velocity image the geometry of the discontinuity between the second and third layer of the model derived from the surface-wave dispersion analysis.
Resumo:
Cette thèse s'inscrit dans la lignée des récents travaux de réévaluation de l'histoire des études cinématographiques. Son objectif est de réviser la conception actuelle de l'historiographie du cinéma en France de 1896 jusqu'au début des années 1950 en remettant en question la vision homogène du courant historique de l'histoire traditionnelle du cinéma telle que l'ont présentée les tenants de la nouvelle histoire du cinéma. Cette thèse se divise en trois parties. J'expose dans la première mon cadre et mon principal outil d'analyse. Je présente l'opération historiographique telle que définie par Michel de Certeau, soit comme le croisement d'un lieu social marqué par des cadres intellectuels dominants, d'un ensemble de procédures dont l'historien se sert pour sélectionner ses sources et construire les faits, et enfin, d'une écriture qui implique l'élaboration d'un système de relations entre les différents faits construits. Je décris ensuite les courants historiques en France des années 1870 jusqu'au début des années 1950. Ce panorama me permet de mieux identifier les échanges, les emprunts et les enrichissements qui se sont opérés entre l'histoire et l'histoire du cinéma durant cette période. Dans la deuxième partie, je « construis » depuis l'intérieur d'un vaste ensemble de discours d'historiens du cinéma, d'historiens de la culture et de théoriciens du cinéma ce qui deviendra la conception dominante de l'historiographie du cinéma. Je montre qu'elle est élaborée par ceux que plusieurs commentateurs nomment les nouveaux historiens du cinéma et qu'elle se réduit à la succession de deux grands courants historiques : l'histoire traditionnelle et la nouvelle histoire du cinéma. J'expose ensuite comment cet acte de périodisation est instrumentalisé par ceux qui l'effectuent. L'objectif des nouveaux historiens n'est pas d'exhumer la pluralité des écritures de l'histoire du cinéma, mais plutôt de mettre en évidence la rupture qu'ils opèrent au sein de l'historiographie du cinéma. L'examen de la place accordée au dispositif cinématographique Hale's Tours dans les histoires générales parues avant et après le Congrès de Brighton me permet finalement d'atténuer la rupture entre ces deux courants historiques. Dans la troisième partie, j'engage l'examen de plusieurs manières d'approcher l'histoire du cinéma. J'identifie différentes ruptures dans l'historiographie française du cinéma concernant l'objet historique que les historiens se donnent, les outils conceptuels qu'ils convoquent et leurs relations aux sources qu'ils utilisent. Ces études de cas me permettent au final de témoigner de la richesse de l'historiographie française du cinéma avant le début des années 1950.
Resumo:
Cette thèse cible l'étude de la structure thermique de la croûte supérieure (<10km) dans les arcs magmatiques continentaux, et son influence sur l'enregistrement thermochronologique de leur exhumation et de leur évolution topographique. Nous portons notre regard sur deux chaînes de montagne appartenant aux Cordillères Américaines : Les Cascades Nord (USA) et la zone de faille Motagua (Guatemala). L'approche utilisée est axée sur la thermochronologie (U-Th-Sm)/He sur apatite et zircon, couplée avec la modélisation numérique de la structure thermique de la croûte. Nous mettons en évidence la variabilité à la fois spatiale et temporelle du gradient géothermique, et attirons l'attention du lecteur sur l'importance de prendre en compte la multitude des processus géologiques perturbant la structure thermique dans les chaînes de type cordillère, c'est à dire formées lors de la subduction océanique sous un continent.Une nouvelle approche est ainsi développée pour étudier et contraindre la perturbation thermique autour des chambres magmatiques. Deux profiles âge-elevation (U-Th-Sm)/He sur apatite et zircon, ont été collectées 7 km au sud du batholithe de Chilliwack, Cascades Nord. Les résultats montrent une variabilité spatiale et temporelle du gradient géothermique lors de l'emplacement magmatique qui peut être contrainte et séparé de l'exhumation. Durant l'emplacement de l'intrusion, la perturbation thermique y atteint un état d'équilibre (-80-100 °C/km) qui est fonction du flux de magma et de ia distance à la source du magma, puis rejoint 40 °C/km à la fin du processus d'emplacement magmatique.Quelques nouvelles données (U-Th)/He, replacées dans une compilation des données existantes dans les Cascades Nord, indiquent une vitesse d'exhumation constante (-100 m/Ma) dans le temps et l'espace entre 35 Ma et 2 Ma, associée à un soulèvement uniforme de la chaîne contrôlé par l'emplacement de magma dans la croûte durant toute l'activité de l'arc. Par contre, après ~2 Ma, le versant humide de la chaîne est affecté par une accélération des taux d'exhumation, jusqu'à 3 km de croûte y sont érodés. Les glaciations ont un triple effet sur l'érosion de cette chaîne: (1) augmentation des vitesses d'érosion, d'exhumation et de soulèvement la où les précipitations sont suffisantes, (2) limitation de l'altitude contrôlé par la position de Γ Ε LA, (3) élargissement du versant humide et contraction du versant aride de la chaîne.Les modifications des réseaux de drainage sont des processus de surface souvent sous-estimés au profil d'événements climatiques ou tectoniques. Nous proposons une nouvelle approche couplant une analyse géomorphologique, des données thermochronologiques de basse température ((U-Th-Sm)/He sur apatite et zircon), et l'utilisation de modélisation numérique thermo-cinématique pour les mettre en évidence et les dater; nous testons cette approche sur la gorge de la Skagit river dans les North Cascades.De nouvelles données (U-Th)/He sur zircons, complétant les données existantes, montrent que le déplacement horizontal le long de la faille transformante continentale Motagua, la limite des plaques Caraïbe/Amérique du Nord, a juxtaposé un bloc froid, le bloc Maya (s.s.), contre un bloque chaud, le bloc Chortis (s.s.) originellement en position d'arc. En plus de donner des gammes d'âges thermochronologiques très différents des deux côtés de la faille, le déplacement horizontal rapide (~2 cm/a) a produit un fort échange thermique latéral, résultant en un réchauffement du côté froid et un refroidissement du côté chaud de la zone de faille de Motagua.Enfin des données (U-Th-Sm)/He sur apatite témoignent d'un refroidissement Oligocène enregistré uniquement dans la croûte supérieure de la bordure nord de la zone de faille Motagua. Nous tenterons ultérieurement de reproduire ce découplage vertical de la structure thermique par la modélisation de la formation d'un bassin transtensif et de circulation de fluides le long de la faille de Motagua. - This thesis focuses on the influence of the dynamic thermal structure of the upper crust (<10km) on the thermochronologic record of the exhumational and topographic history of magmatic continental arcs. Two mountain belts from the American Cordillera are studied: the North Cascades (USA) and the Motagua fault zone (Guatemala). I use a combined approach coupling apatite and zircon (U-Th-Sm}/He thermochronology and thermo- kinematic numerical modelling. This study highlights the temporal and spatial variability of the geothermal gradient and the importance to take into account the different geological processes that perturb the thermal structure of Cordilleran-type mountain belts (i.e. mountain belts related to oceanic subduction underneath a continent}.We integrate apatite and zircon (U-Th)/He data with numerical thermo-kinematic models to study the relative effects of magmatic and surface processes on the thermal evolution of the crust and cooling patterns in the Cenozoic North Cascades arc (Washington State, USA). Two age-elevation profiles that are located 7 km south of the well-studied Chiliiwack intrusions shows that spatial and temporal variability in geothermal gradients linked to magma emplacement can be contrained and separated from exhumation processes. During Chiliiwack batholith emplacement at -35-20 Ma, the geothermal gradient of the country rocks increased to a very high steady-state value (80-100°C/km), which is likely a function of magma flux and the distance from the magma source area. Including temporally varying geothermal gradients in the analysis allows quantifying the thermal perturbation around magmatic intrusions and retrieving a relatively simple denudation history from the data.The synthesis of new and previously published (U-Th)/He data reveals that denudation of the Northern Cascades is spatially and temporally constant at -100 m/Ma between ~32 and ~2 Ma, which likely reflects uplift due to magmatic crustal thickening since the initiation of the Cenozoic stage of the continental magmatic arc. In contrast, the humid flank of the North Cascades is affected by a ten-fold acceleration in exhumation rate at ~2 Ma, which we interpret as forced by the initiation of glaciations; around 3 km of crust have been eroded since that time. Glaciations have three distinct effects on the dynamics of this mountain range: (1) they increase erosion, exhumation and uplift rates where precipitation rates are sufficient to drive efficient glacial erosion; (2) they efficiently limit the elevation of the range; (3) they lead to widening of the humid flank and contraction of the arid flank of the belt.Drainage reorganizations constitute an important agent of landscape evolution that is often underestimated to the benefit of tectonic or climatic events. We propose a new method that integrates geomorphology, low-temperature thermochronometry (apatite and zircon {U-Th-Sm)/He), and 3D numerical thermal-kinematic modelling to detect and date drainage instability producing recent gorge incision, and apply this approach to the Skagit River Gorge, North Cascades.Two zircon (U-Th)/He age-elevation profiles sampled on both sides of the Motagua Fault Zone (MFZ), the boundary between the North American and the Caribbean plates, combined with published thermochronological data show that strike-slip displacement has juxtaposed the cold Maya block (s.s.) against the hot, arc derived, Chortis block (s.s ), producing different age patterns on both sides of the fault and short-wavelength lateral thermal exchange, resulting in recent heating of the cool side and cooling of the hot side of the MFZ.Finally, an apatite (U-Th-Sm)/He age-elevation profile records rapid cooling at -35 Ma localized only in the upper crust along the northern side of the Motagua fault zone. We will try to reproduce these data by modeling the thermal perturbation resulting from the formation of a transtensional basin and of fluid flow activity along a crustal- scale strike-slip fault.
Resumo:
Abstract The object of game theory lies in the analysis of situations where different social actors have conflicting requirements and where their individual decisions will all influence the global outcome. In this framework, several games have been invented to capture the essence of various dilemmas encountered in many common important socio-economic situations. Even though these games often succeed in helping us understand human or animal behavior in interactive settings, some experiments have shown that people tend to cooperate with each other in situations for which classical game theory strongly recommends them to do the exact opposite. Several mechanisms have been invoked to try to explain the emergence of this unexpected cooperative attitude. Among them, repeated interaction, reputation, and belonging to a recognizable group have often been mentioned. However, the work of Nowak and May (1992) showed that the simple fact of arranging the players according to a spatial structure and only allowing them to interact with their immediate neighbors is sufficient to sustain a certain amount of cooperation even when the game is played anonymously and without repetition. Nowak and May's study and much of the following work was based on regular structures such as two-dimensional grids. Axelrod et al. (2002) showed that by randomizing the choice of neighbors, i.e. by actually giving up a strictly local geographical structure, cooperation can still emerge, provided that the interaction patterns remain stable in time. This is a first step towards a social network structure. However, following pioneering work by sociologists in the sixties such as that of Milgram (1967), in the last few years it has become apparent that many social and biological interaction networks, and even some technological networks, have particular, and partly unexpected, properties that set them apart from regular or random graphs. Among other things, they usually display broad degree distributions, and show small-world topological structure. Roughly speaking, a small-world graph is a network where any individual is relatively close, in terms of social ties, to any other individual, a property also found in random graphs but not in regular lattices. However, in contrast with random graphs, small-world networks also have a certain amount of local structure, as measured, for instance, by a quantity called the clustering coefficient. In the same vein, many real conflicting situations in economy and sociology are not well described neither by a fixed geographical position of the individuals in a regular lattice, nor by a random graph. Furthermore, it is a known fact that network structure can highly influence dynamical phenomena such as the way diseases spread across a population and ideas or information get transmitted. Therefore, in the last decade, research attention has naturally shifted from random and regular graphs towards better models of social interaction structures. The primary goal of this work is to discover whether or not the underlying graph structure of real social networks could give explanations as to why one finds higher levels of cooperation in populations of human beings or animals than what is prescribed by classical game theory. To meet this objective, I start by thoroughly studying a real scientific coauthorship network and showing how it differs from biological or technological networks using divers statistical measurements. Furthermore, I extract and describe its community structure taking into account the intensity of a collaboration. Finally, I investigate the temporal evolution of the network, from its inception to its state at the time of the study in 2006, suggesting also an effective view of it as opposed to a historical one. Thereafter, I combine evolutionary game theory with several network models along with the studied coauthorship network in order to highlight which specific network properties foster cooperation and shed some light on the various mechanisms responsible for the maintenance of this same cooperation. I point out the fact that, to resist defection, cooperators take advantage, whenever possible, of the degree-heterogeneity of social networks and their underlying community structure. Finally, I show that cooperation level and stability depend not only on the game played, but also on the evolutionary dynamic rules used and the individual payoff calculations. Synopsis Le but de la théorie des jeux réside dans l'analyse de situations dans lesquelles différents acteurs sociaux, avec des objectifs souvent conflictuels, doivent individuellement prendre des décisions qui influenceront toutes le résultat global. Dans ce cadre, plusieurs jeux ont été inventés afin de saisir l'essence de divers dilemmes rencontrés dans d'importantes situations socio-économiques. Bien que ces jeux nous permettent souvent de comprendre le comportement d'êtres humains ou d'animaux en interactions, des expériences ont montré que les individus ont parfois tendance à coopérer dans des situations pour lesquelles la théorie classique des jeux prescrit de faire le contraire. Plusieurs mécanismes ont été invoqués pour tenter d'expliquer l'émergence de ce comportement coopératif inattendu. Parmi ceux-ci, la répétition des interactions, la réputation ou encore l'appartenance à des groupes reconnaissables ont souvent été mentionnés. Toutefois, les travaux de Nowak et May (1992) ont montré que le simple fait de disposer les joueurs selon une structure spatiale en leur permettant d'interagir uniquement avec leurs voisins directs est suffisant pour maintenir un certain niveau de coopération même si le jeu est joué de manière anonyme et sans répétitions. L'étude de Nowak et May, ainsi qu'un nombre substantiel de travaux qui ont suivi, étaient basés sur des structures régulières telles que des grilles à deux dimensions. Axelrod et al. (2002) ont montré qu'en randomisant le choix des voisins, i.e. en abandonnant une localisation géographique stricte, la coopération peut malgré tout émerger, pour autant que les schémas d'interactions restent stables au cours du temps. Ceci est un premier pas en direction d'une structure de réseau social. Toutefois, suite aux travaux précurseurs de sociologues des années soixante, tels que ceux de Milgram (1967), il est devenu clair ces dernières années qu'une grande partie des réseaux d'interactions sociaux et biologiques, et même quelques réseaux technologiques, possèdent des propriétés particulières, et partiellement inattendues, qui les distinguent de graphes réguliers ou aléatoires. Entre autres, ils affichent en général une distribution du degré relativement large ainsi qu'une structure de "petit-monde". Grossièrement parlant, un graphe "petit-monde" est un réseau où tout individu se trouve relativement près de tout autre individu en termes de distance sociale, une propriété également présente dans les graphes aléatoires mais absente des grilles régulières. Par contre, les réseaux "petit-monde" ont, contrairement aux graphes aléatoires, une certaine structure de localité, mesurée par exemple par une quantité appelée le "coefficient de clustering". Dans le même esprit, plusieurs situations réelles de conflit en économie et sociologie ne sont pas bien décrites ni par des positions géographiquement fixes des individus en grilles régulières, ni par des graphes aléatoires. De plus, il est bien connu que la structure même d'un réseau peut passablement influencer des phénomènes dynamiques tels que la manière qu'a une maladie de se répandre à travers une population, ou encore la façon dont des idées ou une information s'y propagent. Ainsi, durant cette dernière décennie, l'attention de la recherche s'est tout naturellement déplacée des graphes aléatoires et réguliers vers de meilleurs modèles de structure d'interactions sociales. L'objectif principal de ce travail est de découvrir si la structure sous-jacente de graphe de vrais réseaux sociaux peut fournir des explications quant aux raisons pour lesquelles on trouve, chez certains groupes d'êtres humains ou d'animaux, des niveaux de coopération supérieurs à ce qui est prescrit par la théorie classique des jeux. Dans l'optique d'atteindre ce but, je commence par étudier un véritable réseau de collaborations scientifiques et, en utilisant diverses mesures statistiques, je mets en évidence la manière dont il diffère de réseaux biologiques ou technologiques. De plus, j'extrais et je décris sa structure de communautés en tenant compte de l'intensité d'une collaboration. Finalement, j'examine l'évolution temporelle du réseau depuis son origine jusqu'à son état en 2006, date à laquelle l'étude a été effectuée, en suggérant également une vue effective du réseau par opposition à une vue historique. Par la suite, je combine la théorie évolutionnaire des jeux avec des réseaux comprenant plusieurs modèles et le réseau de collaboration susmentionné, afin de déterminer les propriétés structurelles utiles à la promotion de la coopération et les mécanismes responsables du maintien de celle-ci. Je mets en évidence le fait que, pour ne pas succomber à la défection, les coopérateurs exploitent dans la mesure du possible l'hétérogénéité des réseaux sociaux en termes de degré ainsi que la structure de communautés sous-jacente de ces mêmes réseaux. Finalement, je montre que le niveau de coopération et sa stabilité dépendent non seulement du jeu joué, mais aussi des règles de la dynamique évolutionnaire utilisées et du calcul du bénéfice d'un individu.
Resumo:
This qualitative study analyzed, from the teacher’s perspective, if the principle of comprehensiveness is included in child healthcare teaching in nursing education. The participants were 16 teachers involved in teaching child healthcare in eight undergraduate nursing programs. Data collection was performed through interviews that were submitted to thematic content analysis. The theory in teaching incorporates comprehensive care, as it is based on children’s epidemiological profile, child healthcare policies and programs, and included interventions for the promotion/prevention/rehabilitation in primary health care, hospitals, daycare centers and preschools. The comprehensive conception of health-disease process allows for understanding the child within his/her family and community. However, a contradiction exists between what is proposed and what is practiced, because the teaching is fragmented, without any integration among disciplines, with theory dissociated from practice, and isolated practical teaching that compromises the incorporation of the principle of comprehensiveness in child healthcare teaching.
Resumo:
Diante da crescente competitividade, característica do mercado global, e da necessidade de melhorar a eficiência e a produtividade nas organizações, torne-se imperativo o aperfeiçoamento, incessante, na forma de actuação dos gestores. Consciente que, até então, as empresas suportam, essencialmente, no sistema contabilístico, este que, muitas vezes, fornece informações insuficientes e restringidos à tomada de decisões de curto prazo, mostra-se necessário investir em sistemas de medição, ligado à estratégia organizacional, que permitam melhor planeamento e controlo e, ainda, gerar e medir indicadores de longo prazo. No intuito de contribuir para a melhoria do paradigma da gestão, mais concretamente da gestão das empresas Cabo-Verdianas, e, em particular a da empresa em estudo, propomos, como objectivo desta dissertação, o estudo da utilização das ferramentas de gestão tradicional, face às novas ferramentas emergentes. Nisto, apresentamos, como estudo de caso, a avaliação do sistema de controlo de gestão da Empresa Bento - Comércio, Construtores, Imobiliária e Investimentos, Sociedade Anónima, (Bento S.A.), analisando, à luz da literatura consultada, o sistema de gestão estratégica, seguido pela empresa de modo a poder propor eventuais melhorias. Durante a revisão bibliográfica, foram estudadas várias ferramentas da gestão estratégica, das quais escolhemos o Balanced Scorecard (BSC) como um instrumento capaz de responder às lacunas detectadas na estratégia de gestão da Empresa, em que após uma breve descrição dos aspectos teóricos do conceito, suportado nos estudos empíricos publicados, apresentámos uma proposta para sua adopção, concepção e implementação. É de realçar que, durante o estudo constatou-se, por parte da administração da empresa, uma maior consciência da importância da comunicação e divulgação da sua estratégia entre os diferentes níveis hierárquicos, o que evidencia que ela está, mesmo, disposta a apostar na sua inovação estratégica. With the raising competitiveness, characteristic of the global market, and of the need of improving the efficiency and productivity in organizations, the constant improvement in the way of acting of managers it becomes peremptory. Aware that, so far, enterprises support, essentially, on the accounting system, which, many times, gives restrict and insufficient information for the taking of decisions in a short term, it is shown to be necessary to invest in measuring systems, connected to the organizational strategy, which contains signs that allow a better planning and control and, furthermore, give birth to and measure signs on a long term. With the aim of contributing for the improvement of the managing pattern, specifically, the management of Cape Verdean enterprises, and, in particular, the one of the enterprise in study, we propose, as an aim of this dissertation, the study of the use of the traditional managing tools, in view of the emerging new tools. Thus, we present, as study case, the evaluation of the system of management control of the Enterprise Bento - Comércio, Construtores, Imobiliária e Investimentos, Sociedade Anónima, (Bento, S.A.), analyzing the system of strategic management, used by the enterprise to be able to propose eventual improvements. During the bibliographic revision, we studied many strategic management tools, among which we chose the Balanced Scorecard (BSC) as an instrument capable to respond to the gaps detected in the management strategy of the enterprise, in which, after a brief description of the theoretical aspects of the concept, supported on the empiric studies published, we present a proposal for its adoption, conception and implementation. We would like to accentuate that, during the study we noticed that there exists, on the behalf of the management of the enterprise, a major awareness of the importance of communication and diffusion of its strategy among the different hierarchical levels, what makes clear that the enterprise is really open to bet on its strategic innovation.
Resumo:
Cet article présente la conception du sens impliquée par les diverses approches privilégiées par les didacticiens du FLE; après un rapide état des lieux qui met en lumière un sens un peu « figé », comme prisonnier du texte dans toutes ses dimensions possibles (générique, thématique, linguistique...), nous avons essayé d'aller au-delà de cette conception « structuraliste » du sens pour lui substituer une vision plus « herméneutique », davantage soucieuse de suivre le sens dans sa dynamique et surtout attentive à ne pas séparer le sens de ses contextes. Nous avons ensuite proposé quelques pistes pour permettre aux apprenants FLE en particulier de saisir le fonctionnement du sens - pour leur montrer qu'ils sont partie prenante du sens. Puis, à partir d'un questionnaire distribué à des apprenants de divers niveaux, nous avons tenté de réfléchir à leur manière d'appréhender le texte littéraire et ses composantes, pour comprendre où ils situent le sens, comment ils le construisent, et ainsi mesurer le chemin qu'il nous reste à parcourir pour que le texte littéraire soit plus qu'un texte parmi beaucoup d'autres.
Resumo:
RÉSUMÉMythe, tragédie et méta-théâtre sont des termes techniques provenant de disciplines comme l'anthropologie, l'histoire, la théorie et la critique littéraires. Malgré le fait que l'on puisse les assigner à des périodes historiques déterminées, ce sont des notions qui ont encore un sens à la fois actuel (elles sont indispensables pour comprendre le théâtre contemporain) et concret (à travers les différentes poétiques qui les reconfigurent, elles affectent le spectateur d'une certaine façon, ont un effet déterminé sur son corps et sa conscience). Je propose donc de les définir synthétiquement en fonction de l'effet qu'ils produisent sur le spectateur qui est conçu comme une unité de corps et de conscience. Le corps étant défini comme le lieu des émotions, la conscience sera la connaissance que le sujet acquiert de soi et du monde en fonction de ces émotions. Or, le mûthos génère des émotions que la tragédie purge à travers le phénomène de la catharsis. En revanche, le méta-théâtre interrompt le processus émotif de la conscience. Tout en appuyant mes définitions sur des notions de psychologie, neurologie et physique quantique, j'oppose tragédie et méta-théâtre de la façon suivante: la tragédie produit une forme de conscience incarnée chez le spectateur, alors que le méta-théâtre n'aboutit qu'à une forme de conscience cartésienne ou vision désincarnée. J'applique ensuite cette conception à une série de pièces importantes de l'histoire du théâtre espagnol au XXe siècle qui comportent toutes une part de réécriture d'un ou de plusieurs mythes. Je constate une généralisation du traitement méta-théâtral de la réécriture, au détriment non du tragique, mais de la tragédie proprement dite. Par conséquent, je diagnostique un déficit d'incarnation dans le théâtre espagnol au XXe siècle.
Resumo:
RÉQUIEM POR LA MUERTE DEL YO ARTISTA es un proyecto audiovisual en forma de performance sobre la música del compositor finlandés contemporáneo Einojuhani Rautavaara, los Requiem del poeta alemán Rainer Maria Rilke y la concepción filosófica del arte y su comercialidad del artista americano Andy Warhol. RÉQUIEM POR LA MUERTE DEL YO ARTISTA es mi sangre. Es mi compromiso. Trata sobre la dualidad entre el artista y la persona, y cómo esto afecta a nuestro arte. RÉQUIEM POR LA MUERTE DEL YO ARTISTA es una operación de corazón. Es provocación; es sobre vomitar tu mente y estar sediento de futuro. Es comerte a ti mismo. Pero sobre todo, es mi concepción de arte: arte es todo aquello por lo que el creador esté dispuesto a morir.
Resumo:
L'étude a pour objectif de mettre en évidence les effets d'une intervention précoce inspirée des thérapies en Guidance Interactive sur la qualité de l'attachement ainsi que sur la réactivité neuroendocrinienne de stress chez des grands prématurés âgés de 12 mois ainsi que chez leurs mères. La population étudiée comprend 48 grands prématurés (<33 semaines de gestation) et leurs mères. Un programme d'intervention précoce a été proposé aléatoirement à la moitié des dyades incluses dans l'étude. Des mesures de cortisol salivaire ont été effectuées à 12 mois lors d'un épisode de stress modéré (la Situation Étrange) tant chez la mère que chez l'enfant. Les mères ayant bénéficié de l'intervention précoce montrent des taux de cortisol plus élevés que celles n'ayant pas bénéficié de l'intervention. Les auteurs font l'hypothèse que ces mères ont pu développer leur sensibilité envers leur enfant et se montrent, par conséquent, plus concernées lors de l'épisode de stress modéré. The present project aims to assess the effects of an early intervention inspired from Interactive Guidance therapy, on later attachment quality and stress reactivity of prematurely born infants and their mothers. The studied population contends 48 preterm born infants (< 33 weeks og gestational age). Half of the dyads receive an intervention program aiming at promoting the parents' responsivity-sensitivity to infant's cues. Infant's and mother's stress reactivity (salivary cortisol) to mild stressors (Strange Situation) will be assessed at 12 months. Mothers with intervention program show higher cortisol levels than the others. The authors postulate that these mothers enhance their caregiving quality and, subsequently, are more prone to be sensitive to infant's cues and to be concerned during the mild stress episode.
Resumo:
To determine the role of Chlamydia trachomatis in miscarriage, we prospectively collected serum, cervicovaginal swab specimens, and placental samples from 386 women with and without miscarriage. Prevalence of immunoglobulin G against C. trachomatis was higher in the miscarriage group than in the control group (15.2% vs. 7.3%; p = 0.018). Association between C. trachomatis-positive serologic results and miscarriage remained significant after adjustment for age, origin, education, and number of sex partners (odds ratio 2.3, 95% confidence interval 1.1-4.9). C. trachomatis DNA was more frequently amplified from products of conception or placenta from women who had a miscarriage (4%) than from controls (0.7%; p = 0.026). Immunohistochemical analysis confirmed C. trachomatis in placenta from 5 of 7 patients with positive PCR results, whereas results of immunohistochemical analysis were negative in placenta samples from all 8 negative controls tested. Associations between miscarriage and serologic/molecular evidence of C. trachomatis infection support its role in miscarriage.
Resumo:
Résumé La mobilité ne signifie plus uniquement se mouvoir d'un point à un autre ; il s'agit d'un concept lui-même en constante évolution, grâce au progrès technique et à l'innovation sociale notamment. Aujourd'hui, la recherche de la vitesse n'est plus le seul enjeu au coeur de nos préoccupations. Elle a été remplacée par un retour au voyage enrichi par l'expérience et ce quelle que soit sa durée. Cet enrichissement s'est principalement fait par le truchement des technologies de l'information et de la communication et peut prendre plusieurs formes liées aux problématiques contemporaines de la ville et du territoire. Citons comme exemple la valorisation du temps de déplacement, grâce à un meilleur accès à l'information (travail, réseaux sociaux, etc.) et à la recherche d'une plus grande cohérence entre l'acte de se mouvoir et l'environnement proche ou lointain. Cette « recontextualisation » du mouvement nous interpelle dans notre rapport à l'espace et nous donne également des pistes pour repenser le métier d'urbaniste de la ville intelligente. Abstract Mobility issues do not only involve the act of moving nowadays. The concept itself evolves continuously thanks to technological and social innovations. The main stakes do not focus anymore on improving speed, but on enriching the experience of travelling, even in the case of short trips. One of the main factors that fosters this evolution is the progressive adoption of information and communication technologies that help to reshape the issues of contemporary cities. For example, the quality of travel time has improved thanks to the ubiquitous accessibility to information, and by offering a better coherence between the trip and the immediate social environment. The "recontextualisation" of everyday activities (working, interacting, etc.) challenges the relationship individuals have with space and offers many clues in regard to the required skills that urban planners and designers of the smart city should possess.
Resumo:
Ce travail se propose de comparer le personnage de Merlin dans un corpus médiéval (Geoffroy de Monmouth; Wace, Roman de Brut; Merlin en prose; La Suite du Roman de Merlin) et un texte moderne (Blanche-Neige contre Merlin l'enchanteur de Catherine Dufour) à travers la problématique du bien et du mal. Savoir où se situe Merlin, entre Dieu et le diable, est essentiel dans les textes du Moyen Age, alors que cette préoccupation semble à priori dépassée dans un texte iconoclaste, tel que celui de Dufour. Il est pourtant possible de l'observer à de nombreuses reprises, notamment en ce qui concerne l'origine de l'enchanteur, ses pouvoirs, ses éclats de rire et le rôle qu'il joue dans la conception d'Arthur. En annexe, un entretien avec Catherine Dufour.