162 resultados para intégré
Resumo:
Summary Artificial radionuclides were released in the environment during the atmospheric nuclear weapon tests and after accidental events involving nuclear industries. As a primary receptor of the deposition, the soil is a very sensitive compartment and understanding the interaction and migration of radionuclides within soils allows the development of scenario for the contamination risk of the population and of the environment. Most available field studies on radionuclides in soils only concern one or two isotopes, mostly 137Cs, and few physico-chemical soil parameters. The purpose of this study was a broader understanding of the radioecology of an Alpine valley. In a first part, we aimed to describe the depth distribution of 137Cs, 90Sr, 239+240Pu, and 241Am within different alpine soils and to identify some stable elements as indicators for accumulating layers. In the central part of the study, the goal was to investigate the repartition of ^Sr and 239Pu between the truly dissolved fraction and the colloidal fraction of the soil solutions and to identify the nature of colloids involved in the adsorption of ^Sr and 239Pu. These results were integrated in an "advection- sorption" transport model seeking to explain the migration of 239Pu and 90Sr within the soils and to assess the importance of colloidal transport for these two isotopes. A further aspect studied was the role of the competition between the radioisotopes (137Cs and 90Sr) and their stable chemical analogues (K and Ca) with respect to plant uptake by different plant species. The results on the depth distribution within the soils showed that 137Cs was mostly retained in the topsoil, to the exception of an organic-rich soil (Histosol 2) receiving important surface runoff, where migration down to a depth of 30 cm was observed. 137Cs depth distribution within the soils was similar to unsupported 210Pb depth distribution. The plant uptake of 137Cs clearly depended on the concentration of exchangeable potassium in the soils. Moreover, we showed that the 137Cs uptake by certain species of the taxonomic orders Poales and Rosales was more sensitive to the increase in exchangeable Κ compared to other orders. Strontium-90 was much more mobile in the soils than 137Cs and depth migration and accumulation in specific AI- and Fe-rich layers were found down to 30 cm. Copper and Ni showed accumulations in these same layers, indicating their potential to be used as indicators for the migration of ^Sr within the soils. In addition, we observed a 90Sr activity peak in the topsoil that can be attributable to recycling of 90Sr by plant uptake. We demonstrated for the first time that a part of 90Sr (at least 40%) was associated with the colloids in organic-rich soil solutions. Therefore, we predict a significant effect of the colloidal migration of ^Sr in organic-rich soil solutions. The plant uptake results for 90Sr indicated a phylogenetic effect between Non-Eudicot and Eudicots: the order Poales concentrating much less 90Sr than Eudicots do. Moreover, we were able to demonstrate that the sensitivity of the 90Sr uptake by 5 different Alpine plant species to the amount of exchangeable Ca was species-independent. Plutonium and 241Am accumulated in the second layer of all soils and only a slight migration deeper than 20 cm was observed. Plutonium and 241Am showed a similar depth distribution in the soils. The model results suggested that the present day migration of 239Pu was very slow and that the uptake by plants was negligible. 239Pu activities between 0.01 to 0.08 mBq/L were measured in the bulk soil solutions. Migration of 239Pu with the soil solution is dominated by colloidal transport. We reported strong evidences that humic substances were responsible of the sorption of 239Pu to the colloidal fraction of the soil solutions. This was reflected by the strong correlation between 239Pu concentrations and the content of (colloidal) organic matter in the soil solution. Résumé Certains radioéléments artificiels ont été disséminés dans l'environnement suite aux essais atmosphériques de bombes nucléaires et suite à des accidents impliquant les industries nucléaires. En tant que récepteur primaire de la déposition, le sol est un compartiment sensible et des connaissances sur les interactions et la migration des radioéléments dans le sol permettent de développer des modèles pour estimer la contamination de la population et de l'environnement. Actuellement, la plupart des études de terrain sur ce sujet concernent uniquement un ou deux radioéléments, surtout le 137Cs et peu d'études intègrent les paramètres du sol pour expliquer la migration des radioéléments. Le but général de cette étude était une compréhension étendue de la radio-écologie d'une vallée alpine. Notre premier objectif était de décrire la distribution en profondeur de 137Cs, ^Sr, 239+240pu et 241Am dans différents sols alpins en relation avec des éléments stables du sol, dans le but d'identifier des éléments stables qui pourraient servir d'indicateurs pour des horizons accumulateurs. L'objectif de la deuxième partie, qui était la partie centrale de l'étude, était d'estimer le pourcentage d'activité sous forme colloïdale du 239Pu et du 90Sr dans les solutions des sols. De plus nous avons déterminé la nature des colloïdes impliqués dans la fixation du ^Sr et 239Pu. Nous avons ensuite intégré ces résultats dans un modèle de transport développé dans le but de décrire la migration du 239Pu et 90Sr dans le sol. Finalement, nous avons étudié l'absorption de 137Cs et 90Sr par les plantes en fonction de l'espèce et de la compétition avec leur élément analogue stable (K et Ca). Les résultats sur la migration en profondeur du 137Cs ont montré que ce radioélément était généralement retenu en surface, à l'exception d'un sol riche en matière organique dans lequel nous avons observé une nette migration en profondeur. Dans tous les sols, la distribution en profondeur du 137Cs était corrélée avec la distribution du 210Pb. L'absorption du 137Cs par les plantes, était dépendante de la concentration en Κ échangeable dans le sol, le potassium étant un compétiteur. De plus, nous avons observé que les espèces ne réagissaient pas de la même manière aux variations de la concentration de Κ échangeable. En effet, les espèces appartenant aux ordres des Poales et des Rosales étaient plus sensibles aux variations de potassium échangeable dans le sol. Dans tous les sols Le 90Sr était beaucoup plus mobile que le 137Cs. En effet, nous avons observé des accumulations de 90Sr dans des horizons riches en Fe et Al jusqu'à 30 cm de profondeur. De plus, le Cu et le Ni montraient des accumulations dans les mêmes horizons que le 90Sr, indiquant qu'il pourrait être possible d'utiliser ces deux éléments comme analogues pour la migration du 90Sr. D'après le modèle développé, le pic de 90Sr dans les premiers centimètres du sol peut être attribué à du recyclage par les plantes. Le 90Sr en solution était principalement sous forme dissoute dans des solutions de sols peu organique (entre 60 et 100% de 90Sr dissous). Par contre, dans des solutions organiques, un important pourcentage de 90Sr (plus de 40%) était associé aux colloïdes. La migration colloïdale du 90Sr peut donc être significative dans des solutions organiques. Comme pour le 137Cs, l'absorption du 90Sr par les plantes dépendait de la concentration de son analogue chimique dans la fraction échangeable du sol. Par contre, les espèces de plantes étudiées avaient la même sensibilité aux variations de la concentration du calcium échangeable. Le plutonium et l'américium étaient accumulés dans le deuxième horizon du sol et nous avons observé seulement une faible migration plus profondément que 20 cm. Selon le modèle, la migration actuelle du plutonium est très lente et l'absorption par les plantes semble négligeable. Nous avons mesuré entre 0.01 et 0.08 mBq/L de 239Pu dans les solutions de sol brutes. La migration du plutonium par la solution du sol est due principalement aux colloïdes, probablement de nature humique. Résumé grand public Dans les années 1950 à 1960, l'environnement a été contaminé par des éléments radioactifs (radioéléments) artificiels provenant des essais des armes atomiques et de l'industrie nucléaire. En effet, durant ces années, les premiers essais de bombes atomiques se faisaient dans l'atmosphère, libérant de grandes quantités d'éléments radioactifs. De plus certains accidents impliquant l'industrie nucléaire civile ont contribué à la dissémination d'éléments radioactifs dans l'environnement. Ce fut par exemple le cas de l'accident de la centrale atomique de Tchernobyl en 1986 qui a causé une importante contamination d'une grande partie de l'Europe par le 137Cs. Lorsqu'ils sont libérés dans l'atmosphère, les radioéléments sont dispersés et transportés par les courants atmosphériques, puis peuvent être déposés dans l'environnement, principalement par les précipitations. Une fois déposés sur le sol, les radioéléments vont interagir avec les composants du sol et migrer plus ou moins vite. La connaissance des interactions des éléments radioactifs avec le sol est donc importante pour prédire les risques de contamination de l'environnement et de l'homme. Le but général de ce travail était d'évaluer la migration de différents éléments radioactifs (césium-137, strontium-90, plutonium et américium-241) à travers le sol. Nous avons choisi un site d'étude en milieu alpin (Val Piora, Tessin, Suisse), contaminé en radioéléments principalement par les retombées de l'accident de Tchernobyl et des essais atmosphériques de bombes atomiques. Dans un premier temps, nous avons caractérisé la distribution en profondeur des éléments radioactifs dans le sol et l'avons comparée à divers éléments stables. Cette comparaison nous a permit de remarquer que le cuivre et le nickel s'accumulaient dans les mêmes horizons du sol que le strontium-90 et pourraient donc être utilisés comme analogue pour la migration du strontium-90 dans les sols. Dans la plupart des sols étudiés, la migration du césium-137, du plutonium et de l'américium-241 était lente et ces radioéléments étaient donc accumulés dans les premiers centimètres du sol. Par contre, le strontium-90 a migré beaucoup plus rapidement que les autres radioéléments si bien qu'on observe des accumulations de strontium-90 à plus de 30 cm de profondeur. Les radioéléments migrent dans la solution du sol soit sous forme dissoute, soit sous forme colloïdale, c'est-à-dire associés à des particules de diamètre < Ιμηι. Cette association avec des colloïdes permet à des radioéléments peu solubles, comme le plutonium, de migrer plus rapidement qu'attendu. Nous avons voulu savoir quelle était la part de strontium-90 et plutonium associés à des colloïdes dans la solution du sol. Les résultats ont montré que le plutonium en solution était principalement associé à des colloïdes de type organique. Quant au strontium-90, ce dernier était en partie associé à des colloïdes dans des solutions de sol riches en matière organique, par contre, il était principalement sous forme dissoute dans les solutions de sol peu organiques. L'absorption de radioéléments par les plantes représente une voie importante pour le transfert vers la chaîne alimentaire, par conséquent pour la contamination de l'homme. Nous avons donc étudié le transfert du césium-137 et du strontium-90 de plusieurs sols vers différentes espèces de plantes. Les résultats ont montré que l'absorption des radioéléments par les plantes était liée à la concentration de leur analogue chimique (calcium pour le strontium-90 et potassium pour le césium- 137) dans la fraction échangeable du sol. De plus certaines espèces de plantes accumulent significativement moins de strontium-90.
Resumo:
La pierre et l'image. Etude monographique de l'église de Saint-Chef en Dauphiné: L'ancienne abbatiale de Saint-Chef-en-Dauphiné est située dans l'Isère, à 10 km de Bourgoin-Jallieu et à 2 km de l'ancienne voie romaine qui joignait Vienne à Aoste par le col du Petit-Saint-Bernard. L'abbaye dépendait, dès sa fondation, des archevêques de Vienne, dont la cité se trouvait à 70 km plus à l'ouest. Selon le récit de l'archevêque Adon de Vienne, écrit à la fin du IXe siècle, l'abbaye de Saint-Chef aurait été fondée au cours du VIe siècle par saint Theudère sur un territoire appartenant à sa famille, le Val Rupien. D'abord dédié à la Vierge le monastère est placé, dès l'époque carolingienne, sous le double patronage de la Vierge et du saint fondateur, dont les reliques furent déposées dans l'église. Sans doute détruite et abandonnée lors des guerres bosonides qui provoquèrent la ruine de Vienne (882), l'abbaye est restaurée quelques années plus tard par des moines venus de Champagne : en 887 les moines de Montier-en-Der, fuyant leur abbaye menacée par les invasions normandes, trouvent refuge à Saint-Chef. Afin de promouvoir la reconstruction de l'abbaye, l'archevêque Barnoin, soutenu par Louis l'Aveugle, roi de Bourgogne, lui offrent des privilèges d'exemption et plusieurs donations. Signe de la renommée et de la prospérité dont bénéficiait alors le monastère, Hugues, héritier de Louis l'Aveugle, y reçoit son éducation. Vers 925 ou 926, alors que la Champagne est à. nouveau pacifiée, les moines de Montier-en-Der regagnent leur abbaye d'origine après avoir reconstruit, selon les sources, le « petit monastère de Saint-Chef ». L'abbaye dauphinoise n'est pas pour autant abandonnée et reste vraisemblablement en contact avec les moines champenois : en 928, Hugues de Provence fait des donations importantes d l'abbaye qui est alors formellement placée sous la juridiction de l'Eglise de Vienne. En 962, le Viennois est intégré au royaume de Bourgogne puis, en 1032, au domaine impérial. Construction de l'abbaye : Après le départ des moines de Montier-en-Der, l'église dauphinoise a vraisemblablement été reconstruite par saint Thibaud, archevêque de Vienne entre 970 et l'an mil. Ayant peut-être reçu son éducation dans l'abbaye dauphinoise, il est enterré dans l'église qui, selon certaines sources, associe dès lors son patronage à celui du saint fondateur. Elevée en petit appareil irrégulier, la nef actuelle de l'église de Saint-Chef pourrait appartenir à cette phase de construction de l'église. Fils du comte Hugues de Vienne qui possédait d'importants territoires autour de Saint-Chef, Thibaud était aussi lié aux comtes de Troyes et de Champagne : ce sont ces liens qui expliquent la présence répétée de l'archevêque en Champagne et dans la région de Montier-en-Der. Or, à la même époque, l'église champenoise est reconstruite par le célèbre Adson, abbé de 968 à 992. Des ressemblances entre cette construction et celle de Saint-Chef suggèrent la réalisation, au Xe siècle, de deux églises-soeurs. L'église préromane de Montier-en-Der possédait, à. l'ouest, un massif à double étage et l'est, des tours jumelles s'élevant au-dessus des deux chapelles latérales entourant l'abside. Ce plan présente plusieurs points de comparaison avec l'église actuelle de Saint-Chef : on constate en particulier une équivalence au niveau des dimensions (largeur-longueur des nefs et le diamètre de l'abside), un choix identique pour l'emplacement du choeur et des entrées secondaires : à l'extrémité ouest du bas-côté nord et à l'extrémité orientale du bas-côté sud. Ces analogies nous aident à. restituer le plan de Saint-Chef, tel qu'il pouvait apparaître du temps de Thibaud : la partie orientale de l'église, alors élevée en petit appareil irrégulier comme la nef actuelle, était sans doute dépourvue de transept ; à l'image de l'église champenoise, des tours jumelles pouvaient toutefois s'élever au-dessus des deux chapelles orientales. Si notre hypothèse est exacte, le parti architectural adopté à Saint-Chef comme à Montier¬en-Der correspond au plan des églises monastiques réformées au Xe siècle par les abbayes de Fleury et de Gorze (dès 934). Dans ce type d'églises que l'on rencontre essentiellement dans l'ancienne Lotharingie, mais aussi dans une région proche de Saint-Chef, en Savoie, les tours orientales possédaient, à l'étage, des tribunes qui donnaient sur le choeur. La forme caractéristique de ces églises est déterminée par l'observance de coutumes liturgiques communes aux abbayes réformées. Ainsi, la règle établie par la réforme indiquait la nécessité d'espaces surélevés situés à l'est et à l'ouest de l'église : ces espaces avaient pour fonction d'accueillir les choeurs des moines dont les chants alternaient avec ceux des moines réunis au niveau inférieur, devant le sanctuaire. Par la suite, sans doute en raison de nouvelles pratiques liturgiques, la partie orientale de l'église de Saint-Chef, reconstruite en moyen appareil régulier, est augmentée d'un transept à quatre chapelles latérales. Les deux tours, si elles existaient, sont détruites pour être reconstruites aux extrémités du transept, abritant des chapelles hautes qui donnaient sur les bras du transept et le choeur. La vision latérale entre les deux tribunes est alors favorisée par l'alignement des baies des tribunes et des arcades du transept. Grâce à ce système d'ouverture, les choeurs des moines se voyaient et s'entendaient parfaitement. Ce système de tribunes orientales apparaît dans certaines églises normandes du XIe siècle ou dans d'autres églises contemporaines qui semblent s'en inspirer, telles que la cathédrale du Puy ou l'abbatiale de Saint-Sever-sur-l'Adour. L'importance croissante des chants alternés dans les offices semble avoir favorisé l'émergence d'une telle architecture. L'étude du décor sculpté, et notamment des chapiteaux ornant les différentes parties de l'édifice, permet de dater les étapes de transformation de l'abbatiale. L'aménagement des chapelles orientales semble remonter à la première moitié du XIe siècle ; l'installation des piliers soutenant le transept et les deux tours de l'édifice est datable des années 1060-1080. Par la suite, sans doute du temps de Guillaume de la Tour-du-Pin, archevêque de Vienne entre 1165 et 1170, le transept et la croisée sont surélevés et voûtés et des fenêtres viennent ajourer le mur pignon oriental. Les indices de datation tardives, rassemblés au niveau supérieur du transept, ont été utilisés par les spécialistes de l'architecture, tels Raymond Oursel et Guy Barruol, pour dater l'ensemble de l'église du XIIe siècle. Pourtant, dans d'autres études, Otto Demus, Paul Deschamp et Marcel Thiboud dataient les peintures de Saint-Chef de la seconde moitié du XIe siècle, soit un demi-siècle au moins avant la datation proposée pour l'élévation architecturale. Cette contradiction apparente se trouve désormais résolue par la mise en évidence de phases distinctes de construction et de transformations de l'édifice. Les peintures : Le décor peint de l'abbatiale est conservé dans trois chapelles du transept : dans la chapelle Saint-Theudère, à l'extrémité sud du transept, dans la chapelle Saint-Clément, à son autre extrémité, et dans la chapelle haute s'élevant au-dessus de celle-ci. Selon une dédicace peinte derrière l'autel, cette chapelle est dédiée au Christ, aux archanges et à saint Georges martyr. L'analyse stylistique permet de dater les peintures du troisième ou du dernier quart du XIe siècle : leur réalisation semble donc succéder immédiatement à l'élévation du transept et des deux tours que l'on situe, on l'a vu, dans les années 1060-1080. Au cours de cette étude, on a aussi relevé la parenté des peintures avec des oeuvres normandes et espagnoles : ces ressemblances s'affirment par certaines caractéristiques de style, mais aussi par le traitement de l'espace. Par exemple, l'alignement des anges sur la voûte, ou des élus sur le mur ouest de la chapelle haute de Saint-Chef, rappellent certains Beatus du XIe siècle, tels que celui de Saint-Sever antérieur à 1072. Dans la chapelle haute, la hiérarchie céleste est distribuée par catégories autour du Christ, représenté au centre de la voûte ; cette disposition se retrouve à Saint-Michel d'Aiguilhe au Xe siècle, ainsi que dans le premier quart du XIIe siècle à Maderuelo en Catalogne et à Fenouilla en Roussillon. D'autres rapprochements avec des oeuvres ottoniennes et carolingiennes ont aussi été observés, ainsi qu'avec certaines enluminures d'Ingelard, moine à Saint-Germain des Prés entre 1030 et 1060. L'iconographie: Le sens de l'image avait donné lieu à quelques études ponctuelles. Cette thèse a permis, d'une part, la mise en évidence d'un unique programme iconographique auquel participent les peintures des trois chapelles de l'abbatiale et, d'autre part, la découverte des liens entre le choix iconographique de Saint-Chef et certaines sources littéraires. Ces rapports ont par exemple été relevés pour la figure de l'ange conduisant saint Jean à la Jérusalem céleste, sur le voûtain ouest de la chapelle haute. La figure très soignée de l'ange, portant les mêmes vêtements que le Christ peint au centre de la voûte, présente sur son auréole quelques traces sombres qui devaient à l'origine dessiner une croix : ce détail fait de l'ange une figure du Christ, figure qui apparaît dans certaines exégèses apocalyptiques telles que le Commentaire d'Ambroise Autpert au Ville siècle, celui d'Haymon d'Auxerre au IXe siècle ou, au début du XIIe siècle, de Rupert de Deutz. Pour Ambroise Autpert, l'ange guidant saint Jean est une image du Christ amenant l'Eglise terrestre à la Jérusalem céleste, à laquelle elle sera unie à la fin des temps. Les deux figures symboliquement unies par le geste du Christ empoignant la main de saint Jean est une image du corps mystique de Jésus, le corps étant l'Eglise et la tête, le Christ qui enseigne aux fidèles. L'iconographie des peintures de la chapelle haute est centrée autour de l'oeuvre de Rédemption et des moyens pour gagner le salut, la Jérusalem céleste étant le lieu de destination pour les élus. Au centre de la voûte, le Christ présente ses deux bras écartés, en signe d'accueil. Sur le livre ouvert qu'il tient entre les genoux, les mots pax vobis - ego sum renvoient aux paroles prononcées lors de son apparition aux disciples, après sa Résurrection et au terme de son oeuvre de Rédemption. A ses pieds, sur le voûtain oriental, la Vierge en orante, première médiatrice auprès de son Fils, intercède en faveur des humains. Grâce au sacrifice du Christ et à travers la médiation de la Vierge, les hommes peuvent accéder à la Jérusalem céleste : les élus sont ici représentés sur le dernier registre du mur ouest, directement sous la Jérusalem ; un cadre plus sombre y indique symboliquement l'accès à la cité céleste. A l'autre extrémité du voûtain, Adam et Eve sont figurés deux fois autour de l'arbre de la connaissance : chassés du paradis, ils s'éloignent de la cité ; mais une fois accomplie l'oeuvre de Rédemption, ils peuvent à nouveau s'acheminer vers elle. Les peintures de la chapelle inférieure participent elles aussi au projet iconographique de la Rédemption. Sur la voûte de la chapelle, les quatre fleuves paradisiaques entouraient à l'origine une colombe. Selon l'exégèse médiévale, ces fleuves représentent les quatre temps de l'histoire, les vertus ou les quatre évangiles, diffusés aux quatre coins de la terre. Selon une tradition littéraire et iconographique d'origine paléochrétienne, ce sont aussi les eaux paradisiaques qui viennent alimenter les fonts baptismaux : l'association de la colombe, figure du Saint-Esprit et des fleuves du paradis suggère la présence, au centre de la chapelle, des fonts baptismaux. L'image de la colombe se trouve, on l'a vu, dans le prolongement vertical du Christ ressuscité, représenté au centre de la voûte supérieure. Or, selon une tradition qui remonte à Philon et Ambroise de Milan, la source des quatre fleuves, de la Parole divine diffusée par les quatre Evangiles, c'est le Christ. Dans son traité sur le Saint-Esprit, l'évêque de Milan place à la source de l'Esprit saint l'enseignement du Verbe fait homme. Il ajoute que lorsqu'il s'était fait homme, le Saint-Esprit planait au-dessus de lui ; mais depuis la transfiguration de son humanité et sa Résurrection, le Fils de Dieu se tient au-dessus des hommes, à la source du Saint-Esprit : c'est la même logique verticale qui est traduite dans les peintures de Saint-Chef, le Christ ressuscité étant situé au-dessus du Saint-Esprit et des eaux paradisiaques, dans la chapelle haute. Si les grâces divines se diffusent de la source christique aux hommes selon un mouvement descendant, l'image suggère aussi la remontée vers Dieu : en plongeant dans les eaux du baptême, le fidèle initie un parcours qui le ramènera à la source, auprès du Christ. Or, cet ascension ne peut se faire qu'à travers la médiation de l'Eglise : dans la chapelle Saint-Clément, autour de la fenêtre nord, saint Pierre et Paul, princes de l'Eglise, reçoivent la Loi du Christ. Dans la chapelle supérieure, ici aussi autour de la fenêtre septentrionale, deux personnifications déversaient les eaux, sans doute contenues dans un vase, au-dessus d'un prêtre et d'un évêque peints dans les embrasures de la fenêtre : c'est ce dont témoigne une aquarelle du XIXe siècle. Ainsi baignés par l'eau vive de la doctrine, des vertus et des grâces issue de la source divine, les représentants de l'Eglise peuvent eux aussi devenir sources d'enseignement pour les hommes. Ils apparaissent, en tant que transmetteurs de la Parole divine, comme les médiateurs indispensables entre les fidèles et le Christ. C'est par les sacrements et par leur enseignement que les âmes peuvent remonter vers la source divine et jouir de la béatitude. Si l'espace nord est connoté de manière très positive puisqu'il est le lieu de la représentation théophanique et de la Rédemption, les peintures de la chapelle sud renvoient à un sens plus négatif. Sur l'intrados d'arc, des monstres marins sont répartis autour d'un masque barbu aux yeux écarquillés, dont les dents serrées laissent échapper des serpents : ce motif d'origine antique pourrait représenter la source des eaux infernales, dont le « verrou » sera rompu lors du Jugement dernier, à la fin des temps. La peinture située dans la conque absidale est d'ailleurs une allusion au Jugement. On y voit le Christ entouré de deux personnifications en attitude d'intercession, dont Misericordia : elle est, avec Pax, Justifia et Veritas, une des quatre vertus présentes lors du Jugement dernier. Sur le fond de l'absidiole apparaissent des couronnes : elles seront distribuées aux justes en signe de récompense et de vie éternelle. L'allusion au Jugement et à l'enfer est la vision qui s'offre au moine lorsqu'il gagnait l'église en franchissant la porte sud du transept. S'avançant vers le choeur où il rejoignait les stalles, le moine pouvait presque aussitôt, grâce au système ingénieux d'ouvertures que nous avons mentionné plus haut, contempler les peintures situées sur le plafond de la chapelle haute, soit le Christ en attitude d'accueil, les anges et peut-être la Jérusalem céleste ; de là jaillissaient les chants des moines. De façon symbolique, ils se rapprochaient ainsi de leurs modèles, les anges. Dans ce parcours symbolique qui le conduisait de la mer maléfique, représentée dans la chapelle Saint¬Theudère, à Dieu et aux anges, les moines pouvaient compter sur les prières des intercesseurs, de la Vierge, des anges et des saints, tous représentés dans la chapelle haute. A Saint-Chef, l'espace nord peut-être assimilé, pour plusieurs aspects, aux Westwerke carolingiens ou aux galilées clunisiennes. Les massifs occidentaux étaient en effet le lieu de commémoration de l'histoire du salut : sites Westwerke étaient surtout le lieu de la liturgie pascale et abritaient les fonts baptismaux, les galilées clunisiennes étaient réservées à la liturgie des morts, les moines cherchant, par leurs prières, à gagner le salut des défunts. A l'entrée des galilées comme à Saint-Chef, l'image du Christ annonçait le face à face auquel les élus auront droit, à la fin des temps. Elevée au Xe siècle et vraisemblablement transformée dans les années 1060-1080, l'église de Saint-Chef reflète, par son évolution architecturale, celle des pratiques liturgiques ; son programme iconographique, qui unit trois espaces distincts de l'église, traduit d'une manière parfois originale les préoccupations et les aspirations d'une communauté monastique du XIe siècle. On soulignera toutefois que notre compréhension des peintures est limitée par la perte du décor qui, sans doute, ornait l'abside et d'autres parties de l'église ; la disparition de la crypte du choeur nuit aussi à l'appréhension de l'organisation liturgique sur cette partie de l'édifice. Seules des fouilles archéologiques ou la découverte de nouvelles peintures pourront peut-être, à l'avenir, enrichir l'état de nos connaissances.
Resumo:
L'approche psychothérapeutique groupale des patients hospitalisés à l'HJ du CCPPAA du SUPAA à Lausanne occupe une place importante dans le dispositif des soins des patients admis, tant dans le Programme Crise que dans les autres programmes, celui de Thérapie psychiatrique intégrée intensive (TPII) que celui à plus long terme des patients du programme de Thérapie psychiatrique intégré subaigüe (TPIS). Parmi les nombreux groupes proposés aux patients, le groupe de parole fait partie des groupes ayant gardé un dispositif spatio-temporel constant pendant plusieurs années. Dans le cadre d'une restructuration des groupes, les deux groupes de paroles ont été arrêtés, afin de permettre une nouvelle réflexion et une nouvelle temporalité des groupes, plus brève et mieux articulée avec le fonctionnement actuel de 1'HJ. Nous allons décrire cette phase très émotionnelle pour les patients, de «fin du groupe», qui a renvoyé, toute l'équipe à la réflexion sur d'autres « fins », mobilisant d'autres mouvements émotionnels liés à la « transitionnalité institutionnelle ».
Resumo:
Summary Due to their conic shape and the reduction of area with increasing elevation, mountain ecosystems were early identified as potentially very sensitive to global warming. Moreover, mountain systems may experience unprecedented rates of warming during the next century, two or three times higher than that records of the 20th century. In this context, species distribution models (SDM) have become important tools for rapid assessment of the impact of accelerated land use and climate change on the distribution plant species. In my study, I developed and tested new predictor variables for species distribution models (SDM), specific to current and future geographic projections of plant species in a mountain system, using the Western Swiss Alps as model region. Since meso- and micro-topography are relevant to explain geographic patterns of plant species in mountain environments, I assessed the effect of scale on predictor variables and geographic projections of SDM. I also developed a methodological framework of space-for-time evaluation to test the robustness of SDM when projected in a future changing climate. Finally, I used a cellular automaton to run dynamic simulations of plant migration under climate change in a mountain landscape, including realistic distance of seed dispersal. Results of future projections for the 21st century were also discussed in perspective of vegetation changes monitored during the 20th century. Overall, I showed in this study that, based on the most severe A1 climate change scenario and realistic dispersal simulations of plant dispersal, species extinctions in the Western Swiss Alps could affect nearly one third (28.5%) of the 284 species modeled by 2100. With the less severe 61 scenario, only 4.6% of species are predicted to become extinct. However, even with B1, 54% (153 species) may still loose more than 80% of their initial surface. Results of monitoring of past vegetation changes suggested that plant species can react quickly to the warmer conditions as far as competition is low However, in subalpine grasslands, competition of already present species is probably important and limit establishment of newly arrived species. Results from future simulations also showed that heavy extinctions of alpine plants may start already in 2040, but the latest in 2080. My study also highlighted the importance of fine scale and regional. assessments of climate change impact on mountain vegetation, using more direct predictor variables. Indeed, predictions at the continental scale may fail to predict local refugees or local extinctions, as well as loss of connectivity between local populations. On the other hand, migrations of low-elevation species to higher altitude may be difficult to predict at the local scale. Résumé La forme conique des montagnes ainsi que la diminution de surface dans les hautes altitudes sont reconnues pour exposer plus sensiblement les écosystèmes de montagne au réchauffement global. En outre, les systèmes de montagne seront sans doute soumis durant le 21ème siècle à un réchauffement deux à trois fois plus rapide que celui mesuré durant le 20ème siècle. Dans ce contexte, les modèles prédictifs de distribution géographique de la végétation se sont imposés comme des outils puissants pour de rapides évaluations de l'impact des changements climatiques et de la transformation du paysage par l'homme sur la végétation. Dans mon étude, j'ai développé de nouvelles variables prédictives pour les modèles de distribution, spécifiques à la projection géographique présente et future des plantes dans un système de montagne, en utilisant les Préalpes vaudoises comme zone d'échantillonnage. La méso- et la microtopographie étant particulièrement adaptées pour expliquer les patrons de distribution géographique des plantes dans un environnement montagneux, j'ai testé les effets d'échelle sur les variables prédictives et sur les projections des modèles de distribution. J'ai aussi développé un cadre méthodologique pour tester la robustesse potentielle des modèles lors de projections pour le futur. Finalement, j'ai utilisé un automate cellulaire pour simuler de manière dynamique la migration future des plantes dans le paysage et dans quatre scénarios de changement climatique pour le 21ème siècle. J'ai intégré dans ces simulations des mécanismes et des distances plus réalistes de dispersion de graines. J'ai pu montrer, avec les simulations les plus réalistes, que près du tiers des 284 espèces considérées (28.5%) pourraient être menacées d'extinction en 2100 dans le cas du plus sévère scénario de changement climatique A1. Pour le moins sévère des scénarios B1, seulement 4.6% des espèces sont menacées d'extinctions, mais 54% (153 espèces) risquent de perdre plus 80% de leur habitat initial. Les résultats de monitoring des changements de végétation dans le passé montrent que les plantes peuvent réagir rapidement au réchauffement climatique si la compétition est faible. Dans les prairies subalpines, les espèces déjà présentes limitent certainement l'arrivée de nouvelles espèces par effet de compétition. Les résultats de simulation pour le futur prédisent le début d'extinctions massives dans les Préalpes à partir de 2040, au plus tard en 2080. Mon travail démontre aussi l'importance d'études régionales à échelle fine pour évaluer l'impact des changements climatiques sur la végétation, en intégrant des variables plus directes. En effet, les études à échelle continentale ne tiennent pas compte des micro-refuges, des extinctions locales ni des pertes de connectivité entre populations locales. Malgré cela, la migration des plantes de basses altitudes reste difficile à prédire à l'échelle locale sans modélisation plus globale.
Resumo:
Les problèmes d'écoulements multiphasiques en média poreux sont d'un grand intérêt pour de nombreuses applications scientifiques et techniques ; comme la séquestration de C02, l'extraction de pétrole et la dépollution des aquifères. La complexité intrinsèque des systèmes multiphasiques et l'hétérogénéité des formations géologiques sur des échelles multiples représentent un challenge majeur pour comprendre et modéliser les déplacements immiscibles dans les milieux poreux. Les descriptions à l'échelle supérieure basées sur la généralisation de l'équation de Darcy sont largement utilisées, mais ces méthodes sont sujettes à limitations pour les écoulements présentant de l'hystérèse. Les avancées récentes en terme de performances computationnelles et le développement de méthodes précises pour caractériser l'espace interstitiel ainsi que la distribution des phases ont favorisé l'utilisation de modèles qui permettent une résolution fine à l'échelle du pore. Ces modèles offrent un aperçu des caractéristiques de l'écoulement qui ne peuvent pas être facilement observées en laboratoire et peuvent être utilisé pour expliquer la différence entre les processus physiques et les modèles à l'échelle macroscopique existants. L'objet premier de la thèse se porte sur la simulation numérique directe : les équations de Navier-Stokes sont résolues dans l'espace interstitiel et la méthode du volume de fluide (VOF) est employée pour suivre l'évolution de l'interface. Dans VOF, la distribution des phases est décrite par une fonction fluide pour l'ensemble du domaine et des conditions aux bords particulières permettent la prise en compte des propriétés de mouillage du milieu poreux. Dans la première partie de la thèse, nous simulons le drainage dans une cellule Hele-Shaw 2D avec des obstacles cylindriques. Nous montrons que l'approche proposée est applicable même pour des ratios de densité et de viscosité très importants et permet de modéliser la transition entre déplacement stable et digitation visqueuse. Nous intéressons ensuite à l'interprétation de la pression capillaire à l'échelle macroscopique. Nous montrons que les techniques basées sur la moyenne spatiale de la pression présentent plusieurs limitations et sont imprécises en présence d'effets visqueux et de piégeage. Au contraire, une définition basée sur l'énergie permet de séparer les contributions capillaires des effets visqueux. La seconde partie de la thèse est consacrée à l'investigation des effets d'inertie associés aux reconfigurations irréversibles du ménisque causé par l'interface des instabilités. Comme prototype pour ces phénomènes, nous étudions d'abord la dynamique d'un ménisque dans un pore angulaire. Nous montrons que, dans un réseau de pores cubiques, les sauts et reconfigurations sont si fréquents que les effets d'inertie mènent à différentes configurations des fluides. A cause de la non-linéarité du problème, la distribution des fluides influence le travail des forces de pression, qui, à son tour, provoque une chute de pression dans la loi de Darcy. Cela suggère que ces phénomènes devraient être pris en compte lorsque que l'on décrit l'écoulement multiphasique en média poreux à l'échelle macroscopique. La dernière partie de la thèse s'attache à démontrer la validité de notre approche par une comparaison avec des expériences en laboratoire : un drainage instable dans un milieu poreux quasi 2D (une cellule Hele-Shaw avec des obstacles cylindriques). Plusieurs simulations sont tournées sous différentes conditions aux bords et en utilisant différents modèles (modèle intégré 2D et modèle 3D) afin de comparer certaines quantités macroscopiques avec les observations au laboratoire correspondantes. Malgré le challenge de modéliser des déplacements instables, où, par définition, de petites perturbations peuvent grandir sans fin, notre approche numérique apporte de résultats satisfaisants pour tous les cas étudiés. - Problems involving multiphase flow in porous media are of great interest in many scientific and engineering applications including Carbon Capture and Storage, oil recovery and groundwater remediation. The intrinsic complexity of multiphase systems and the multi scale heterogeneity of geological formations represent the major challenges to understand and model immiscible displacement in porous media. Upscaled descriptions based on generalization of Darcy's law are widely used, but they are subject to several limitations for flow that exhibit hysteric and history- dependent behaviors. Recent advances in high performance computing and the development of accurate methods to characterize pore space and phase distribution have fostered the use of models that allow sub-pore resolution. These models provide an insight on flow characteristics that cannot be easily achieved by laboratory experiments and can be used to explain the gap between physical processes and existing macro-scale models. We focus on direct numerical simulations: we solve the Navier-Stokes equations for mass and momentum conservation in the pore space and employ the Volume Of Fluid (VOF) method to track the evolution of the interface. In the VOF the distribution of the phases is described by a fluid function (whole-domain formulation) and special boundary conditions account for the wetting properties of the porous medium. In the first part of this thesis we simulate drainage in a 2-D Hele-Shaw cell filled with cylindrical obstacles. We show that the proposed approach can handle very large density and viscosity ratios and it is able to model the transition from stable displacement to viscous fingering. We then focus on the interpretation of the macroscopic capillary pressure showing that pressure average techniques are subject to several limitations and they are not accurate in presence of viscous effects and trapping. On the contrary an energy-based definition allows separating viscous and capillary contributions. In the second part of the thesis we investigate inertia effects associated with abrupt and irreversible reconfigurations of the menisci caused by interface instabilities. As a prototype of these phenomena we first consider the dynamics of a meniscus in an angular pore. We show that in a network of cubic pores, jumps and reconfigurations are so frequent that inertia effects lead to different fluid configurations. Due to the non-linearity of the problem, the distribution of the fluids influences the work done by pressure forces, which is in turn related to the pressure drop in Darcy's law. This suggests that these phenomena should be taken into account when upscaling multiphase flow in porous media. The last part of the thesis is devoted to proving the accuracy of the numerical approach by validation with experiments of unstable primary drainage in a quasi-2D porous medium (i.e., Hele-Shaw cell filled with cylindrical obstacles). We perform simulations under different boundary conditions and using different models (2-D integrated and full 3-D) and we compare several macroscopic quantities with the corresponding experiment. Despite the intrinsic challenges of modeling unstable displacement, where by definition small perturbations can grow without bounds, the numerical method gives satisfactory results for all the cases studied.
Resumo:
EXECUTIVE SUMMARY : Evaluating Information Security Posture within an organization is becoming a very complex task. Currently, the evaluation and assessment of Information Security are commonly performed using frameworks, methodologies and standards which often consider the various aspects of security independently. Unfortunately this is ineffective because it does not take into consideration the necessity of having a global and systemic multidimensional approach to Information Security evaluation. At the same time the overall security level is globally considered to be only as strong as its weakest link. This thesis proposes a model aiming to holistically assess all dimensions of security in order to minimize the likelihood that a given threat will exploit the weakest link. A formalized structure taking into account all security elements is presented; this is based on a methodological evaluation framework in which Information Security is evaluated from a global perspective. This dissertation is divided into three parts. Part One: Information Security Evaluation issues consists of four chapters. Chapter 1 is an introduction to the purpose of this research purpose and the Model that will be proposed. In this chapter we raise some questions with respect to "traditional evaluation methods" as well as identifying the principal elements to be addressed in this direction. Then we introduce the baseline attributes of our model and set out the expected result of evaluations according to our model. Chapter 2 is focused on the definition of Information Security to be used as a reference point for our evaluation model. The inherent concepts of the contents of a holistic and baseline Information Security Program are defined. Based on this, the most common roots-of-trust in Information Security are identified. Chapter 3 focuses on an analysis of the difference and the relationship between the concepts of Information Risk and Security Management. Comparing these two concepts allows us to identify the most relevant elements to be included within our evaluation model, while clearing situating these two notions within a defined framework is of the utmost importance for the results that will be obtained from the evaluation process. Chapter 4 sets out our evaluation model and the way it addresses issues relating to the evaluation of Information Security. Within this Chapter the underlying concepts of assurance and trust are discussed. Based on these two concepts, the structure of the model is developed in order to provide an assurance related platform as well as three evaluation attributes: "assurance structure", "quality issues", and "requirements achievement". Issues relating to each of these evaluation attributes are analysed with reference to sources such as methodologies, standards and published research papers. Then the operation of the model is discussed. Assurance levels, quality levels and maturity levels are defined in order to perform the evaluation according to the model. Part Two: Implementation of the Information Security Assurance Assessment Model (ISAAM) according to the Information Security Domains consists of four chapters. This is the section where our evaluation model is put into a welldefined context with respect to the four pre-defined Information Security dimensions: the Organizational dimension, Functional dimension, Human dimension, and Legal dimension. Each Information Security dimension is discussed in a separate chapter. For each dimension, the following two-phase evaluation path is followed. The first phase concerns the identification of the elements which will constitute the basis of the evaluation: ? Identification of the key elements within the dimension; ? Identification of the Focus Areas for each dimension, consisting of the security issues identified for each dimension; ? Identification of the Specific Factors for each dimension, consisting of the security measures or control addressing the security issues identified for each dimension. The second phase concerns the evaluation of each Information Security dimension by: ? The implementation of the evaluation model, based on the elements identified for each dimension within the first phase, by identifying the security tasks, processes, procedures, and actions that should have been performed by the organization to reach the desired level of protection; ? The maturity model for each dimension as a basis for reliance on security. For each dimension we propose a generic maturity model that could be used by every organization in order to define its own security requirements. Part three of this dissertation contains the Final Remarks, Supporting Resources and Annexes. With reference to the objectives of our thesis, the Final Remarks briefly analyse whether these objectives were achieved and suggest directions for future related research. Supporting resources comprise the bibliographic resources that were used to elaborate and justify our approach. Annexes include all the relevant topics identified within the literature to illustrate certain aspects of our approach. Our Information Security evaluation model is based on and integrates different Information Security best practices, standards, methodologies and research expertise which can be combined in order to define an reliable categorization of Information Security. After the definition of terms and requirements, an evaluation process should be performed in order to obtain evidence that the Information Security within the organization in question is adequately managed. We have specifically integrated into our model the most useful elements of these sources of information in order to provide a generic model able to be implemented in all kinds of organizations. The value added by our evaluation model is that it is easy to implement and operate and answers concrete needs in terms of reliance upon an efficient and dynamic evaluation tool through a coherent evaluation system. On that basis, our model could be implemented internally within organizations, allowing them to govern better their Information Security. RÉSUMÉ : Contexte général de la thèse L'évaluation de la sécurité en général, et plus particulièrement, celle de la sécurité de l'information, est devenue pour les organisations non seulement une mission cruciale à réaliser, mais aussi de plus en plus complexe. A l'heure actuelle, cette évaluation se base principalement sur des méthodologies, des bonnes pratiques, des normes ou des standards qui appréhendent séparément les différents aspects qui composent la sécurité de l'information. Nous pensons que cette manière d'évaluer la sécurité est inefficiente, car elle ne tient pas compte de l'interaction des différentes dimensions et composantes de la sécurité entre elles, bien qu'il soit admis depuis longtemps que le niveau de sécurité globale d'une organisation est toujours celui du maillon le plus faible de la chaîne sécuritaire. Nous avons identifié le besoin d'une approche globale, intégrée, systémique et multidimensionnelle de l'évaluation de la sécurité de l'information. En effet, et c'est le point de départ de notre thèse, nous démontrons que seule une prise en compte globale de la sécurité permettra de répondre aux exigences de sécurité optimale ainsi qu'aux besoins de protection spécifiques d'une organisation. Ainsi, notre thèse propose un nouveau paradigme d'évaluation de la sécurité afin de satisfaire aux besoins d'efficacité et d'efficience d'une organisation donnée. Nous proposons alors un modèle qui vise à évaluer d'une manière holistique toutes les dimensions de la sécurité, afin de minimiser la probabilité qu'une menace potentielle puisse exploiter des vulnérabilités et engendrer des dommages directs ou indirects. Ce modèle se base sur une structure formalisée qui prend en compte tous les éléments d'un système ou programme de sécurité. Ainsi, nous proposons un cadre méthodologique d'évaluation qui considère la sécurité de l'information à partir d'une perspective globale. Structure de la thèse et thèmes abordés Notre document est structuré en trois parties. La première intitulée : « La problématique de l'évaluation de la sécurité de l'information » est composée de quatre chapitres. Le chapitre 1 introduit l'objet de la recherche ainsi que les concepts de base du modèle d'évaluation proposé. La maniéré traditionnelle de l'évaluation de la sécurité fait l'objet d'une analyse critique pour identifier les éléments principaux et invariants à prendre en compte dans notre approche holistique. Les éléments de base de notre modèle d'évaluation ainsi que son fonctionnement attendu sont ensuite présentés pour pouvoir tracer les résultats attendus de ce modèle. Le chapitre 2 se focalise sur la définition de la notion de Sécurité de l'Information. Il ne s'agit pas d'une redéfinition de la notion de la sécurité, mais d'une mise en perspectives des dimensions, critères, indicateurs à utiliser comme base de référence, afin de déterminer l'objet de l'évaluation qui sera utilisé tout au long de notre travail. Les concepts inhérents de ce qui constitue le caractère holistique de la sécurité ainsi que les éléments constitutifs d'un niveau de référence de sécurité sont définis en conséquence. Ceci permet d'identifier ceux que nous avons dénommés « les racines de confiance ». Le chapitre 3 présente et analyse la différence et les relations qui existent entre les processus de la Gestion des Risques et de la Gestion de la Sécurité, afin d'identifier les éléments constitutifs du cadre de protection à inclure dans notre modèle d'évaluation. Le chapitre 4 est consacré à la présentation de notre modèle d'évaluation Information Security Assurance Assessment Model (ISAAM) et la manière dont il répond aux exigences de l'évaluation telle que nous les avons préalablement présentées. Dans ce chapitre les concepts sous-jacents relatifs aux notions d'assurance et de confiance sont analysés. En se basant sur ces deux concepts, la structure du modèle d'évaluation est développée pour obtenir une plateforme qui offre un certain niveau de garantie en s'appuyant sur trois attributs d'évaluation, à savoir : « la structure de confiance », « la qualité du processus », et « la réalisation des exigences et des objectifs ». Les problématiques liées à chacun de ces attributs d'évaluation sont analysées en se basant sur l'état de l'art de la recherche et de la littérature, sur les différentes méthodes existantes ainsi que sur les normes et les standards les plus courants dans le domaine de la sécurité. Sur cette base, trois différents niveaux d'évaluation sont construits, à savoir : le niveau d'assurance, le niveau de qualité et le niveau de maturité qui constituent la base de l'évaluation de l'état global de la sécurité d'une organisation. La deuxième partie: « L'application du Modèle d'évaluation de l'assurance de la sécurité de l'information par domaine de sécurité » est elle aussi composée de quatre chapitres. Le modèle d'évaluation déjà construit et analysé est, dans cette partie, mis dans un contexte spécifique selon les quatre dimensions prédéfinies de sécurité qui sont: la dimension Organisationnelle, la dimension Fonctionnelle, la dimension Humaine, et la dimension Légale. Chacune de ces dimensions et son évaluation spécifique fait l'objet d'un chapitre distinct. Pour chacune des dimensions, une évaluation en deux phases est construite comme suit. La première phase concerne l'identification des éléments qui constituent la base de l'évaluation: ? Identification des éléments clés de l'évaluation ; ? Identification des « Focus Area » pour chaque dimension qui représentent les problématiques se trouvant dans la dimension ; ? Identification des « Specific Factors » pour chaque Focus Area qui représentent les mesures de sécurité et de contrôle qui contribuent à résoudre ou à diminuer les impacts des risques. La deuxième phase concerne l'évaluation de chaque dimension précédemment présentées. Elle est constituée d'une part, de l'implémentation du modèle général d'évaluation à la dimension concernée en : ? Se basant sur les éléments spécifiés lors de la première phase ; ? Identifiant les taches sécuritaires spécifiques, les processus, les procédures qui auraient dû être effectués pour atteindre le niveau de protection souhaité. D'autre part, l'évaluation de chaque dimension est complétée par la proposition d'un modèle de maturité spécifique à chaque dimension, qui est à considérer comme une base de référence pour le niveau global de sécurité. Pour chaque dimension nous proposons un modèle de maturité générique qui peut être utilisé par chaque organisation, afin de spécifier ses propres exigences en matière de sécurité. Cela constitue une innovation dans le domaine de l'évaluation, que nous justifions pour chaque dimension et dont nous mettons systématiquement en avant la plus value apportée. La troisième partie de notre document est relative à la validation globale de notre proposition et contient en guise de conclusion, une mise en perspective critique de notre travail et des remarques finales. Cette dernière partie est complétée par une bibliographie et des annexes. Notre modèle d'évaluation de la sécurité intègre et se base sur de nombreuses sources d'expertise, telles que les bonnes pratiques, les normes, les standards, les méthodes et l'expertise de la recherche scientifique du domaine. Notre proposition constructive répond à un véritable problème non encore résolu, auquel doivent faire face toutes les organisations, indépendamment de la taille et du profil. Cela permettrait à ces dernières de spécifier leurs exigences particulières en matière du niveau de sécurité à satisfaire, d'instancier un processus d'évaluation spécifique à leurs besoins afin qu'elles puissent s'assurer que leur sécurité de l'information soit gérée d'une manière appropriée, offrant ainsi un certain niveau de confiance dans le degré de protection fourni. Nous avons intégré dans notre modèle le meilleur du savoir faire, de l'expérience et de l'expertise disponible actuellement au niveau international, dans le but de fournir un modèle d'évaluation simple, générique et applicable à un grand nombre d'organisations publiques ou privées. La valeur ajoutée de notre modèle d'évaluation réside précisément dans le fait qu'il est suffisamment générique et facile à implémenter tout en apportant des réponses sur les besoins concrets des organisations. Ainsi notre proposition constitue un outil d'évaluation fiable, efficient et dynamique découlant d'une approche d'évaluation cohérente. De ce fait, notre système d'évaluation peut être implémenté à l'interne par l'entreprise elle-même, sans recourir à des ressources supplémentaires et lui donne également ainsi la possibilité de mieux gouverner sa sécurité de l'information.
Resumo:
Characterizing the geological features and structures in three dimensions over inaccessible rock cliffs is needed to assess natural hazards such as rockfalls and rockslides and also to perform investigations aimed at mapping geological contacts and building stratigraphy and fold models. Indeed, the detailed 3D data, such as LiDAR point clouds, allow to study accurately the hazard processes and the structure of geologic features, in particular in vertical and overhanging rock slopes. Thus, 3D geological models have a great potential of being applied to a wide range of geological investigations both in research and applied geology projects, such as mines, tunnels and reservoirs. Recent development of ground-based remote sensing techniques (LiDAR, photogrammetry and multispectral / hyperspectral images) are revolutionizing the acquisition of morphological and geological information. As a consequence, there is a great potential for improving the modeling of geological bodies as well as failure mechanisms and stability conditions by integrating detailed remote data. During the past ten years several large rockfall events occurred along important transportation corridors where millions of people travel every year (Switzerland: Gotthard motorway and railway; Canada: Sea to sky highway between Vancouver and Whistler). These events show that there is still a lack of knowledge concerning the detection of potential rockfalls, making mountain residential settlements and roads highly risky. It is necessary to understand the main factors that destabilize rocky outcrops even if inventories are lacking and if no clear morphological evidences of rockfall activity are observed. In order to increase the possibilities of forecasting potential future landslides, it is crucial to understand the evolution of rock slope stability. Defining the areas theoretically most prone to rockfalls can be particularly useful to simulate trajectory profiles and to generate hazard maps, which are the basis for land use planning in mountainous regions. The most important questions to address in order to assess rockfall hazard are: Where are the most probable sources for future rockfalls located? What are the frequencies of occurrence of these rockfalls? I characterized the fracturing patterns in the field and with LiDAR point clouds. Afterwards, I developed a model to compute the failure mechanisms on terrestrial point clouds in order to assess the susceptibility to rockfalls at the cliff scale. Similar procedures were already available to evaluate the susceptibility to rockfalls based on aerial digital elevation models. This new model gives the possibility to detect the most susceptible rockfall sources with unprecented detail in the vertical and overhanging areas. The results of the computation of the most probable rockfall source areas in granitic cliffs of Yosemite Valley and Mont-Blanc massif were then compared to the inventoried rockfall events to validate the calculation methods. Yosemite Valley was chosen as a test area because it has a particularly strong rockfall activity (about one rockfall every week) which leads to a high rockfall hazard. The west face of the Dru was also chosen for the relevant rockfall activity and especially because it was affected by some of the largest rockfalls that occurred in the Alps during the last 10 years. Moreover, both areas were suitable because of their huge vertical and overhanging cliffs that are difficult to study with classical methods. Limit equilibrium models have been applied to several case studies to evaluate the effects of different parameters on the stability of rockslope areas. The impact of the degradation of rockbridges on the stability of large compartments in the west face of the Dru was assessed using finite element modeling. In particular I conducted a back-analysis of the large rockfall event of 2005 (265'000 m3) by integrating field observations of joint conditions, characteristics of fracturing pattern and results of geomechanical tests on the intact rock. These analyses improved our understanding of the factors that influence the stability of rock compartments and were used to define the most probable future rockfall volumes at the Dru. Terrestrial laser scanning point clouds were also successfully employed to perform geological mapping in 3D, using the intensity of the backscattered signal. Another technique to obtain vertical geological maps is combining triangulated TLS mesh with 2D geological maps. At El Capitan (Yosemite Valley) we built a georeferenced vertical map of the main plutonio rocks that was used to investigate the reasons for preferential rockwall retreat rate. Additional efforts to characterize the erosion rate were made at Monte Generoso (Ticino, southern Switzerland) where I attempted to improve the estimation of long term erosion by taking into account also the volumes of the unstable rock compartments. Eventually, the following points summarize the main out puts of my research: The new model to compute the failure mechanisms and the rockfall susceptibility with 3D point clouds allows to define accurately the most probable rockfall source areas at the cliff scale. The analysis of the rockbridges at the Dru shows the potential of integrating detailed measurements of the fractures in geomechanical models of rockmass stability. The correction of the LiDAR intensity signal gives the possibility to classify a point cloud according to the rock type and then use this information to model complex geologic structures. The integration of these results, on rockmass fracturing and composition, with existing methods can improve rockfall hazard assessments and enhance the interpretation of the evolution of steep rockslopes. -- La caractérisation de la géologie en 3D pour des parois rocheuses inaccessibles est une étape nécessaire pour évaluer les dangers naturels tels que chutes de blocs et glissements rocheux, mais aussi pour réaliser des modèles stratigraphiques ou de structures plissées. Les modèles géologiques 3D ont un grand potentiel pour être appliqués dans une vaste gamme de travaux géologiques dans le domaine de la recherche, mais aussi dans des projets appliqués comme les mines, les tunnels ou les réservoirs. Les développements récents des outils de télédétection terrestre (LiDAR, photogrammétrie et imagerie multispectrale / hyperspectrale) sont en train de révolutionner l'acquisition d'informations géomorphologiques et géologiques. Par conséquence, il y a un grand potentiel d'amélioration pour la modélisation d'objets géologiques, ainsi que des mécanismes de rupture et des conditions de stabilité, en intégrant des données détaillées acquises à distance. Pour augmenter les possibilités de prévoir les éboulements futurs, il est fondamental de comprendre l'évolution actuelle de la stabilité des parois rocheuses. Définir les zones qui sont théoriquement plus propices aux chutes de blocs peut être très utile pour simuler les trajectoires de propagation des blocs et pour réaliser des cartes de danger, qui constituent la base de l'aménagement du territoire dans les régions de montagne. Les questions plus importantes à résoudre pour estimer le danger de chutes de blocs sont : Où se situent les sources plus probables pour les chutes de blocs et éboulement futurs ? Avec quelle fréquence vont se produire ces événements ? Donc, j'ai caractérisé les réseaux de fractures sur le terrain et avec des nuages de points LiDAR. Ensuite, j'ai développé un modèle pour calculer les mécanismes de rupture directement sur les nuages de points pour pouvoir évaluer la susceptibilité au déclenchement de chutes de blocs à l'échelle de la paroi. Les zones sources de chutes de blocs les plus probables dans les parois granitiques de la vallée de Yosemite et du massif du Mont-Blanc ont été calculées et ensuite comparés aux inventaires des événements pour vérifier les méthodes. Des modèles d'équilibre limite ont été appliqués à plusieurs cas d'études pour évaluer les effets de différents paramètres sur la stabilité des parois. L'impact de la dégradation des ponts rocheux sur la stabilité de grands compartiments de roche dans la paroi ouest du Petit Dru a été évalué en utilisant la modélisation par éléments finis. En particulier j'ai analysé le grand éboulement de 2005 (265'000 m3), qui a emporté l'entier du pilier sud-ouest. Dans le modèle j'ai intégré des observations des conditions des joints, les caractéristiques du réseau de fractures et les résultats de tests géoméchaniques sur la roche intacte. Ces analyses ont amélioré l'estimation des paramètres qui influencent la stabilité des compartiments rocheux et ont servi pour définir des volumes probables pour des éboulements futurs. Les nuages de points obtenus avec le scanner laser terrestre ont été utilisés avec succès aussi pour produire des cartes géologiques en 3D, en utilisant l'intensité du signal réfléchi. Une autre technique pour obtenir des cartes géologiques des zones verticales consiste à combiner un maillage LiDAR avec une carte géologique en 2D. A El Capitan (Yosemite Valley) nous avons pu géoréferencer une carte verticale des principales roches plutoniques que j'ai utilisé ensuite pour étudier les raisons d'une érosion préférentielle de certaines zones de la paroi. D'autres efforts pour quantifier le taux d'érosion ont été effectués au Monte Generoso (Ticino, Suisse) où j'ai essayé d'améliorer l'estimation de l'érosion au long terme en prenant en compte les volumes des compartiments rocheux instables. L'intégration de ces résultats, sur la fracturation et la composition de l'amas rocheux, avec les méthodes existantes permet d'améliorer la prise en compte de l'aléa chute de pierres et éboulements et augmente les possibilités d'interprétation de l'évolution des parois rocheuses.
Resumo:
[...] L'objectif de ce travail est d'exposer les notions de "compétence sanitaire" (Health Literacy) et d' "autonomisation" (Empowerment) dans un contexte de prise en charge pédiatrique des enfants de migrants. Nous sommes convaincus que ces deux concepts émergeants dans le domaine de la santé et appliqués au contexte migratoire constituent, sur les plans économiques et de management, des éléments qui peuvent mener à terme à : i) une réduction mesurable des coûts de la santé et ii) une porte d'entrée efficace dans un processus d'intégration - dont l'importance est reconnue sur le plan économique - des migrants dans leur pays d'accueil. Tout au long de ce travail, il apparaîtra comme évident que des données propres à la prise en charge sanitaire pédiatrique des enfants de migrants font actuellement souvent défaut, a fortiori l'application des concepts de compétence sanitaire et d'autonomisation pour cette part de la société. Nous le percevons comme une opportunité de mettre en place les conditions cadres pour combler ce vide. Nous poserons tout d'abord le cadre de ce mémoire au travers de la présentation des concepts de compétence sanitaire et d'autonomisation, en mettant en avant leurs aspects économiques dans les systèmes de santé actuels, en particulier en Suisse. Nous présenterons dans les chapitres 2 et 3 d'une part des données concernant l'état de santé de la population migrante en Suisse et d'autre part la stratégie mise en place au niveau fédéral dans le domaine " migration et santé 2008-2013 ". Le chapitre 4 nous permettra de présenter un "case study" que nous avons intégré à notre travail afin d'apporter des éléments plus concrets aux notions théoriques abordées dans ce mémoire. Nous avons choisi de nous concentrer sur l'Hôpital de l'Enfance de Lausanne (HEL) parce que l'HEL nous semble présenter un cas de structure hospitalière qui fait un effort remarquable de prise en charge médico-psycho-sociale des enfants de migrants. Le chapitre 5, en conclusion, aura pour objectif principal de soutenir que l'inclusion d'une dimension de management/gestion de la santé (représenté ici par l'autonomisation et la compétence sanitaire) introduirait une valeur ajoutée remarquable à l'effort constructif consenti sur le plan médico-social décrit au chapitre précédent. [Auteure, p. 4-5]
Resumo:
This paper considers various asymptotic approximations in the near-integrated firstorder autoregressive model with a non-zero initial condition. We first extend the work of Knight and Satchell (1993), who considered the random walk case with a zero initial condition, to derive the expansion of the relevant joint moment generating function in this more general framework. We also consider, as alternative approximations, the stochastic expansion of Phillips (1987c) and the continuous time approximation of Perron (1991). We assess how these alternative methods provide or not an adequate approximation to the finite-sample distribution of the least-squares estimator in a first-order autoregressive model. The results show that, when the initial condition is non-zero, Perron's (1991) continuous time approximation performs very well while the others only offer improvements when the initial condition is zero.
Resumo:
We propose methods for testing hypotheses of non-causality at various horizons, as defined in Dufour and Renault (1998, Econometrica). We study in detail the case of VAR models and we propose linear methods based on running vector autoregressions at different horizons. While the hypotheses considered are nonlinear, the proposed methods only require linear regression techniques as well as standard Gaussian asymptotic distributional theory. Bootstrap procedures are also considered. For the case of integrated processes, we propose extended regression methods that avoid nonstandard asymptotics. The methods are applied to a VAR model of the U.S. economy.
Resumo:
La lecture numérique prend de plus en plus de place dans l'espace global de la lecture des étudiants. Bien que les premiers systèmes de lecture numérique, communément appelés livres électroniques, datent déjà de plusieurs années, les opinions quant à leur potentiel divergent encore. Une variété de contenus universitaires numériques s’offre aujourd’hui aux étudiants, entraînant par le fait même une multiplication d'usages ainsi qu'une variété de modes de lecture. Les systèmes de lecture numérique font maintenant partie intégrante de l’environnement électronique auquel les étudiants ont accès et méritent d’être étudiés plus en profondeur. Maintes expérimentations ont été menées dans des bibliothèques publiques et dans des bibliothèques universitaires sur les livres électroniques. Des recherches ont été conduites sur leur utilisabilité et sur le degré de satisfaction des lecteurs dans le but d’en améliorer le design. Cependant, très peu d’études ont porté sur les pratiques de lecture proprement dites des universitaires (notamment les étudiants) et sur leurs perceptions de ces nouveaux systèmes de lecture. Notre recherche s’intéresse à ces aspects en étudiant deux systèmes de lecture numérique, une Tablet PC (dispositif nomade) et un système de livres-Web, NetLibrary (interface de lecture intégrée à un navigateur Web). Notre recherche étudie les pratiques de lecture des étudiants sur ces systèmes de lecture numérique. Elle est guidée par trois questions de recherche qui s’articulent autour (1) des stratégies de lecture employées par des étudiants (avant, pendant et après la lecture), (2) des éléments du système de lecture qui influencent (positivement ou négativement) le processus de lecture et (3) des perceptions des étudiants vis-à-vis la technologie du livre électronique et son apport à leur travail universitaire. Pour mener cette recherche, une approche méthodologique mixte a été retenue, utilisant trois modes de collecte de données : un questionnaire, des entrevues semi-structurées avec les étudiants ayant utilisé l’un ou l’autre des systèmes étudiés, et le prélèvement des traces de lecture laissées par les étudiants dans les systèmes, après usage. Les répondants (n=46) étaient des étudiants de l’Université de Montréal, provenant de trois départements (Bibliothéconomie & sciences de l’information, Communication et Linguistique & traduction). Près de la moitié d’entre eux (n=21) ont été interviewés. Parallèlement, les traces de lecture laissées dans les systèmes de lecture par les étudiants (annotations, surlignages, etc.) ont été prélevées et analysées. Les données des entrevues et des réponses aux questions ouvertes du questionnaire ont fait l'objet d'une analyse de contenu et un traitement statistique a été réservé aux données des questions fermées du questionnaire et des traces de lecture. Les résultats obtenus montrent que, d’une façon générale, l’objectif de lecture, la nouveauté du contenu, les habitudes de lecture de l’étudiant de même que les possibilités du système de lecture sont les éléments qui orientent le choix et l’application des stratégies de lecture. Des aides et des obstacles à la lecture ont été identifiés pour chacun des systèmes de lecture étudiés. Les aides consistent en la présence de certains éléments de la métaphore du livre papier dans le système de lecture numérique (notion de page délimitée, pagination, etc.), le dictionnaire intégré au système, et le fait que les systèmes de lecture étudiés facilitent la lecture en diagonale. Pour les obstacles, l’instrumentation de la lecture a rendu l’appropriation du texte par le lecteur difficile. De plus, la lecture numérique (donc « sur écran ») a entraîné un manque de concentration et une fatigue visuelle notamment avec NetLibrary. La Tablet PC, tout comme NetLibrary, a été perçue comme facile à utiliser mais pas toujours confortable, l’inconfort étant davantage manifeste dans NetLibrary. Les étudiants considèrent les deux systèmes de lecture comme des outils pratiques pour le travail universitaire, mais pour des raisons différentes, spécifiques à chaque système. L’évaluation globale de l’expérience de lecture numérique des répondants s’est avérée, dans l’ensemble, positive pour la Tablet PC et plutôt mitigée pour NetLibrary. Cette recherche contribue à enrichir les connaissances sur (1) la lecture numérique, notamment celle du lectorat universitaire étudiant, et (2) l’impact d’un système de lecture sur l’efficacité de la lecture, sur les lecteurs, sur l’atteinte de l’objectif de lecture, et sur les stratégies de lecture utilisées. Outre les limites de l’étude, des pistes pour des recherches futures sont présentées.
Resumo:
Dans un contexte d’intégration économique, quel est l’impact d’un cadre réglementaire distinctif en matière d’emploi sur le développement économique ? L’article montre dans un premier temps le caractère fondamentalement distinct du cadre réglementaire québécois relativement au cadre américain. De là, il analyse cette question à partir d’entrevues réalisées auprès de dirigeants d’entreprises ayant des lieux de production dans ces deux espaces économiques. Cette démarche permet d’amorcer une réflexion théorique sur le particularisme institutionnel au sein d’un ensemble économique régional intégré. L’étude conclut qu’il est possible de préserver les spécificités du cadre réglementaire québécois dans la mesure où celui-ci s’inscrit dans une stratégie de développement de l’industrie manufacturière dans les secteurs à haute valeur ajoutée, lesquels exigent une main-d’œuvre qualifiée. Il importe donc de soutenir la croissance des secteurs susceptibles de tirer avantage d’un tel contexte, notamment par l’appui à la recherche et au développement.
Resumo:
En salle d’opération, les tâches de l’anesthésiste sont nombreuses. Alors que l’utilisation de nouveaux outils technologiques l’informe plus fidèlement sur ce qui se passe pour son patient, ces outils font que ses tâches deviennent plus exigeantes. En vue de diminuer cette charge de travail, nous avons considérer l’administration automatique d’agents anesthésiques en se servant de contrôle en boucle fermée. À cette fin, nous avons développé un système d’administration d’un agent anesthésique (le propofol) visant à maintenir à un niveau optimal la perte de conscience du patient pendant toute la durée d’une chirurgie. Le système comprend un ordinateur, un moniteur d’anesthésie et une pompe de perfusion. L’ordinateur est doté d’un algorithme de contrôle qui, à partir d’un indice (Bispectral IndexTM ou BIS) fournit par le moniteur d’anesthésie détermine le taux d’infusion de l’agent anesthésiant. Au départ, l’anesthésiste choisit une valeur cible pour la variable de contrôle BIS et l’algorithme, basé sur système expert, calcule les doses de perfusion de propofol de sorte que la valeur mesurée de BIS se rapproche le plus possible de la valeur cible établie. Comme interface-utilisateur pour un nouveau moniteur d’anesthésie, quatre sortes d’affichage ont été considérés: purement numérique, purement graphique, un mélange entre graphique et numérique et un affichage graphique intégré (soit bidimensionnel). À partir de 20 scenarios différents où des paramètres normaux et anormaux en anesthésie étaient présentés à des anesthésistes et des résidents, l’étude des temps de réaction, de l’exactitude des réponses et de la convivialité (évaluée par le NASA-TLX) a montré qu’un affichage qui combine des éléments graphiques et numériques était le meilleur choix comme interface du système. Une étude clinique a été réalisée pour comparer le comportement du système d’administration de propofol en boucle fermée comparativement à une anesthésie contrôlée de façon manuelle et conventionnelle où le BIS était aussi utilisé. Suite à l’approbation du comité d’éthique et le consentement de personnes ayant à subir des chirurgies générales et orthopédiques, 40 patients ont été distribués également et aléatoirement soit dans le Groupe contrôle, soit dans le Groupe boucle fermée. Après l’induction manuelle de propofol (1.5 mg/kg), le contrôle en boucle fermée a été déclenché pour maintenir l’anesthésie à une cible de BIS fixée à 45. Dans l’autre groupe, le propofol a été administré à l’aide d’une pompe de perfusion et l’anesthésiste avait aussi à garder manuellement l’indice BIS le plus proche possible de 45. En fonction du BIS mesuré, la performance du contrôle exercé a été définie comme excellente pendant les moments où la valeur du BIS mesurée se situait à ±10% de la valeur cible, bonne si comprise de ±10% à ±20%, faible si comprise de ±20% à ±30% ou inadéquate lorsque >±30%. Dans le Groupe boucle fermée, le système a montré un contrôle excellent durant 55% du temps total de l’intervention, un bon contrôle durant 29% du temps et faible que pendant 9% du temps. Le temps depuis l’arrêt de la perfusion jusqu’à l’extubation est de 9 ± 3.7 min. Dans le Groupe contrôle, un contrôle excellent, bon, et faible a été enregistré durant 33%, 33% et 15% du temps respectivement et les doses ont été changées manuellement par l’anesthésiste en moyenne 9.5±4 fois par h. L’extubation a été accomplie après 11.9 ± 3.3 min de l’arrêt de la perfusion. Dans le Groupe boucle fermée, un contrôle excellent a été obtenu plus longtemps au cours des interventions (P<0.0001) et un contrôle inadéquat moins longtemps (P=0.001) que dans le Groupe contrôle. Le système en boucle fermée d’administration de propofol permet donc de maintenir plus facilement l’anesthésie au voisinage d’une cible choisie que l’administration manuelle.
Resumo:
Le phénomène de la mort a été et sera toujours présent au sein des sociétés. Bien que la mort soit une étape triste et pénible à vivre, elle n’en demeure pas moins un événement inévitable et bien réel. Cependant, il existe des moyens, comme la pratique des rites, permettant d’atténuer la souffrance causée par un décès. Malgré tout, il n’est pas rare de constater l’absence ou le peu de temps consacré aux rites lors d’un décès en milieu hospitalier (O’Gorman, 1998; Lemieux, 1991; Leonetti, 2004; Hamonet, 1992; Piquet, 1999; Hanus, 1999; Vachon, 2007; Hasendhal, 1998). Les raisons susceptibles d’être à l’origine de cette situation peuvent découler du fait que les progrès de la médecine et des technologies amènent à croire que l’être humain est invulnérable face à la mort et que celle-ci représente un échec vis-à-vis la maladie. Le manque de formation des soignants par rapport à la mort (Leonetti, 2004; Goopy, 2005; Blum, 2006) est aussi à considérer. Finalement, la tendance de certaines sociétés occidentales qui occultent et nient la mort (O’Gorman, 1998; Piquet, 1999; Matzo et al., 2001; MSSS, 2004; Leonetti, 2004; SFAP, 2005; Goopy, 2005) constitue une autre possibilité. Pourtant, offrir la possibilité aux familles de réaliser leurs rites en signe d’amour pour le défunt fait partie de la composante du soin spirituel lequel, est intégré dans les soins infirmiers. À notre connaissance, peu d’études ont exploré les rites dans un contexte de décès en milieu hospitalier, d’où la pertinence de s’y attarder. Ainsi, le but de la recherche consistait à décrire et à comprendre la signification des rites associés au décès de la personne soignée, pour des infirmières œuvrant en milieu hospitalier. Pour ce faire, l’étudiante-chercheuse a réalisé auprès de neufs infirmières, une étude qualitative de type phénoménologique, ayant comme perspective disciplinaire, la philosophie du caring de Watson (1979, 1988, 2006, 2008). L’analyse des verbatim, réalisée selon la méthodologie de Giorgi (1997), a permis d’obtenir 28 sous-thèmes émergeant des six thèmes suivant soit : a) accompagnement empreint de caring; b) respect incontesté de la dignité humaine et du caractère sacré des rites; c) réconfort spirituel des personnes, des familles et du personnel; d) conciliation des croyances culturelles et religieuses; e) mort comme phénomène existentiel; f) barrières face aux rites. Par la suite, a émergé de ces thèmes, l’essence de la signification des rites associés au décès de la personne soignée, pour des infirmières œuvrant en milieu hospitalier. L’essence correspond à : un hommage essentiel envers le défunt et sa famille, en dépit des nombreuses barrières qui freinent sa pratique. Plusieurs thèmes et sous-thèmes corroborent les résultats de quelques études et les propos théoriques de différents auteurs. Toutefois, le caractère inédit de quelques unes de nos conclusions révèle la nature novatrice de la présente recherche. Par conséquent, les résultats de cette étude peuvent sensibiliser les infirmières à comprendre les rites en milieu hospitalier et offrir des pistes d’interventions pouvant contribuer au renouvellement des pratiques de soins offerts en fin de vie. Enfin, accompagner les familles dans leur pratique des rites concourt certainement à promouvoir l’humanisation des soins.
Resumo:
Sous l’impulsion de la Loi 83, loi modifiant la Loi sur les services de santé et les services sociaux et d’autres dispositions législatives, sanctionnée en 2005, et fort d’une expérience issue d’une coopération de plus de 30 ans entre les bibliothèques des sciences de la santé de l’Université de Montréal et les bibliothèques de ses hôpitaux affiliés, un consortium est né ayant pour but de regrouper les efforts et augmenter l’offre documentaire pour mieux desservir ses clientèles. Après avoir décrit quelques consortiums canadiens dans le domaine de la santé, les auteurs présentent le nouveau consortium des ressources électroniques du Réseau universitaire intégré de santé de l’Université de Montréal (RUISUM)qui s’est vu confié le mandat de procurer des ressources informationnelles en sciences de la santé ainsi que des services afin de mieux soutenir l’enseignement, la recherche, la formation professionnelle continue et le soutien à la démarche clinique dans les établissements membres. Le territoire desservi par le RUIS de l’Université couvre un bassin de population de 3 millions d’habitants, représente 40% des soins de la santé de la province et s’adresse à plus de 25 000 professionnels de la santé. Dans le respect des stratégies de chaque établissement membre, le consortium du RUISUM a redéfinit le couple produit marché pour se positionner dans le segment des bibliothèques virtuelles. Il met l’accent sur la formation aux compétences informationnelles, sur l’interaction avec le personnel de la bibliothèque et utilise le web comme outil.