311 resultados para Métrique logiciel
Resumo:
RésuméIntroduction : Le travail de thèse est un article publié dans le journal « Fertility & Sterility » s'intitulant « Birth records from Swiss married couples analyzed over the past 35 years reveal an aging of first-time mothers by 5.1 years while the interpregnancy interval has shortened ».Méthodes : Les données concernant l'âge auquel les femmes mariées donnaient naissance ont été obtenues de l'Office fédéral de la statistique. Nous avons examiné la période allant de 1969 à 2006. Cet intervalle de temps choisi nous a permis de prendre en considération un total de 2'716'370 naissances. L'âge moyen des parturientes à la naissance de leur 1er, 2ème et 3ème enfant a été calculé pour chaque année à l'aide du logiciel Excel. Grâce à ces données on a pu obtenir les intervalles inter-gestationnels théoriques entre le 1er et 2ème enfant, ainsi qu'entre le 2ème et 3ème enfant.Résultats : Nous pouvons constater que l'intervalle inter-gestationnel théorique entre la première et la deuxième grossesse était de 23.2 mois en 1969 et passait à 13.0 mois en 2006. L'intervalle compris entre la deuxième et la troisième grossesse passait de 22.4 mois en 1969 à 7.9 mois en 2006. Notre analyse suggère donc que c'est le facteur social qui exerce un effet plus important que le facteur biologique sur les intervalles inter-gestationnels, car ces intervalles diminuaient malgré l'augmentation de l'âge des mères à la naissance.
Resumo:
RésuméCette thèse traite d'un domaine d'application de l'écologie industrielle, les symbioses industrielles, comme stratégie d'amélioration de la consommation des ressources matérielles et énergétiques et de la gestion des déchets par les activités économiques. Les symbioses industrielles cherchent à créer de nouvelles collaborations directement entre les acteurs économiques d'un territoire dans le but d'échanger de l'information, des matières premières et des déchets, et d'intensifier les mutualisations de services et d'infrastructures possibles entre entreprises voisines. Ces quatre types de collaboration sont représentés schématiquement dans la figure ci-dessous.Dans ce travail, la détection et la mise en oeuvre de symbioses industrielles sont abordées sous plusieurs angles. Les recherches réalisées concernent le développement de procédures de mise en oeuvre s'adressant aux collectivités publiques, aux institutions académiques et aux bureaux de conseil dans le domaine de l'environnement. Les objectifs des procédures sont de créer une dynamique de collaboration et de confiance entre les acteurs économiques et l'administration publique d'un territoire afin de détecter des symbioses industrielles potentielles. Ces procédures requièrent la gestion de grandes quantités d'informations relatives aux flux de matière et d'énergie.Un travail de terrain, réalisé sur les territoires du canton de Genève et de Lausanne Région et utilisé comme études de cas, a permis de mettre en évidence un grand nombre de symbioses industrielles qui existent déjà en Suisse romande. Plusieurs dizaines d'exemples ont été identifiés principalement dans lesdomaines de la gestion de l'eau, de l'énergie, des produits chimiques et des matériaux de construction. La législation suisse autoriserait cependant la concrétisation de nombreuses autres opportunités. Dans cette recherche, celles-ci sont évaluées techniquement, légalement, économiquement et environnementalement. La création d'un référentiel d'évaluation des opportunités permet de déterminer quelles sont les symbioses industrielles techniquement réalisables et pertinentes dans le contexte suisse et dans quels cas celles-ci représenteraient une réelle plus-value par rapport à l'utilisation actuelle de la ressource et aux filières existantes de collecte et de valorisation des déchets.Finalement, un logiciel, SymbioGIS, destiné à soutenir la détection et l'évaluation de symbioses industrielles potentielles a été développé. Il s'agit d'une interface web accessible pour de nombreux utilisateurs, couplée à une interface de systèmes d'information géographique. En plus de la détection de symbioses industrielles, plusieurs fonctionnalités sont proposées pour faciliter la prise en compte des flux de matière et d'énergie dans les problématiques liées à l'aménagement du territoire et au positionnement des activités économiques.En conclusion, cette recherche met en évidence la nécessité de rapprocher les institutions publiques en charge de la protection de l'environnement, de la promotion économique et de l'aménagement du territoire pour favoriser l'essor des symbioses industrielles comme stratégie pour la gestion des ressources matérielles et énergétiques. Elle propose des pistes pour intensifier les collaborations entre ces domaines et accélérer le partage des connaissances liées aux flux de matière et d'énergie et à leur cheminement au sein des activités économiques afin de rendre le système industriel existant en Suisse romande viable à long terme. Parallèlement, elle étudie les possibilités de transposer ces considérations et les procédures et outils développés dans le contexte économique et social de la région Asie-Pacifique, où se trouvent aujourd'hui de nombreuses activités de production.SummaryIndustrial symbioses: A new strategy for improving how economic activities use material and energy resourcesThis thesis focuses on one application of industrial ecology, industrial symbioses, as a strategy for improving how economic activities consume material and energy resources. Industrial symbioses seek to create new collaborations among economic players with the goal of exchanging information, raw materials, and waste directly among area businesses, and to step up the potential pooling of services and infrastructure among neighboring companies.The identification and implementation of industrial symbioses are studied from several angles. The research first examines the development of implementation procedures for government bodies, academic institutions, and environmental consulting services. The purpose of the procedures is to create a dynamic of collaboration and trust between the economic players and the public officials in a region in order to identify potential industrial symbioses. The procedures necessitate managing large amounts of information about material and energy flows.Fieldwork conducted in the canton of Geneva and the Lausanne region, and used as case studies for the research, highlights a great number of industrial symbioses that already exist in French-speaking Switzerland. Several dozen examples are identified, primarily in the areas of water management, energy, chemical products, and building materials; however, Swiss law would permit many others. The research evaluates these opportunities from a technical, legal, economic, and environmental standpoint. By developing an assessment framework it is possible to determine which industrial symbioses are technically feasible and pertinent in Switzerland, and under what circumstances they would represent real added value compared to the current use of the resource and to existing systems for collecting and reusing waste.Lastly, SymbioGIS software was developed to help identify and assess potential industrial symbioses. The program's Web-based interface can be accessed by multiple users and is coupled with an interface that provides geographic information. In addition to identifying industrial symbioses, several program functionalities make it easier to consider material and energy flows with regard to local development issues and siting economic activities.In conclusion, the research highlights the need to bring together public institutions charged with protecting the environment, promoting economic activity, and overseeing development in order to foster the expansion of industrial symbioses as a strategy for managing material and energy resources. It proposes solutions for stepping up collaboration among these players and accelerating the sharing of knowledge about material and energy flows and their paths within economic activities with the goal of making theexisting industrial system in French-speaking Switzerland viable long-term. Also examined were thepossibilities of transposing these considerations and the study's findings about Switzerland to the economic and social context of the Asia-Pacific region, where much production is now located.
Resumo:
Associant les éléments d'une théorie du paysage et des notions géographiques telles que la métrique, le capital spatial et la mobilité, cet article s'intéresse à un petit voyage en banlieue parisienne, effectué par François Maspero et Anaïk Frantz l'année du bicentenaire de la Révolution française. Les deux amis, le plus souvent, se déplacent à pied. Mais il leur arrive aussi d'emprunter une voiture ou les transports publics. Alors, confrontés à la métropolisation de l'espace urbain et à "la démesure scalaire des infrastructures", ils tâchent de composer avec un certain nombre de lacunes paysagères.
Resumo:
Le bassin du Rhône à l'amont du Léman peut être sujet à de fortes précipitations en mesure de provoquer des crues significatives. L'objectif du projet MINERVE dans lequel s'inscrit le présent travail consiste à fournir des outils pour la prévision et la gestion des crues par des actions préventives sur les aménagements hydroélectriques à accumulation. Pour satisfaire ce dernier, il est nécessaire de prévoir au mieux les cumuls de précipitations pour les jours suivants. Ceci est actuellement effectué par le modèle numérique de prévision de MétéoSuisse ; mais, en raison des grandes incertitudes liées à la quantification des événements extrêmes, il a été décidé qu'une approche parallèle de nature statistique pourrait compléter l'information disponible. Ainsi, nous avons adapté la méthode des analogues, qui est une technique de prévision statistique des précipitations, au contexte alpin du bassin d'étude. Pour ce faire, plusieurs paramétrisations de la méthode ont été documentées et calibrées. Afin de prendre en main la méthode, nous avons effectué de multiples analyses paramétriques sur les variables synoptiques, mais également sur la constitution de groupements pluviométriques. Une partie conséquente de cette étude a été consacrée à la programmation d'un logiciel de prévision automatique par la méthode des analogues, ainsi qu'à un outil de visualisation des résultats sous forme de cartes et graphiques. Ce logiciel, nommé Atmoswing, permet d'implémenter un grand nombre de méthodes différentes de prévision par analogie. L'outil est opérationnel depuis mi-2011 et nous a permis de confirmer l'intérêt de la prévision par analogie. La méthode étant ici appliquée à un nouveau contexte, un grand nombre de variables synoptiques ont été évaluées. Nous avons alors confirmé l'intérêt des deux niveaux d'analogie sur la circulation atmosphérique et sur le flux d'humidité, tout en apportant des améliorations à celles-ci. Il en résulte des paramétrisations présentant des scores de performance supérieurs aux méthodes de référence considérées. Nous avons également évalué d'autres améliorations, comme l'introduction d'une fenêtre temporelle glissante afin de rechercher de meilleures analogies synoptiques à d'autres heures de la journée, ce qui s'est avéré intéressant, tout comme une prévision infrajournalière à pas de temps de 6 h. Finalement, nous avons introduit une technique d'optimisation globale, les algorithmes génétiques, capable de calibrer la méthode des analogues en considérant tous les paramètres des différents niveaux d'analogie de manière conjointe. Avec cette technique, nous pouvons nous approcher objectivement d'une paramétrisation optimale. Le choix des niveaux atmosphériques et des fenêtres temporelles et spatiales étant automatisé, cette technique peut engendrer un gain de temps, même si elle est relativement exigeante en calculs. Nous avons ainsi pu améliorer la méthode des analogues, et y ajouter de nouveaux degrés de liberté, notamment des fenêtres spatiales et des pondérations différenciées selon les niveaux atmosphériques retenus.
Resumo:
RESUME Les améliorations méthodologiques des dernières décennies ont permis une meilleure compréhension de la motilité gastro-intestinale. Il manque toutefois une méthode qui permette de suivre la progression du chyme le long du tube gastro-intestinal. Pour permettre l'étude de la motilité de tout le tractus digestif humain, une nouvelle technique, peu invasive, a été élaborée au Département de Physiologie, en collaboration avec l'EPFL. Appelée "Magnet Tracking", la technique est basée sur la détection du champ magnétique généré par des matériaux ferromagnétiques avalés. A cet usage, une pilule magnétique, une matrice de capteurs et un logiciel ont été développés. L'objet de ce travail est de démontrer la faisabilité d'un examen de la motilité gastro-intestinale chez l'Homme par cette méthode. L'aimant est un cylindre (ø 6x7 mm, 0.2 cm3) protégé par une gaine de silicone. Le système de mesure est constitué d'une matrice de 4x4 capteurs et d'un ordinateur portable. Les capteurs fonctionnent sur l'effet Hall. Grâce à l'interface informatique, l'évolution de la position de l'aimant est suivie en temps réel à travers tout le tractus digestif. Sa position est exprimée en fonction du temps ou reproduite en 3-D sous forme d'une trajectoire. Différents programmes ont été crées pour analyser la dynamique des mouvements de l'aimant et caractériser la motilité digestive. Dix jeunes volontaires en bonne santé ont participé à l'étude. L'aimant a été avalé après une nuit de jeûne et son séjour intra digestif suivi pendant 2 jours consécutifs. Le temps moyen de mesure était de 34 heures. Chaque sujet a été examiné une fois sauf un qui a répété sept fois l'expérience. Les sujets restaient en décubitus dorsal, tranquilles et pouvaient interrompre la mesure s'ils le désiraient. Ils sont restés à jeûne le premier jour. L'évacuation de l'aimant a été contrôlée chez tous les sujets. Tous les sujets ont bien supporté l'examen. Le marqueur a pu être détecté de l'oesophage au rectum. La trajectoire ainsi constituée représente une conformation de l'anatomie digestive : une bonne superposition de celle-ci à l'anatomie est obtenue à partir des images de radiologie conventionnelle (CT-scan, lavement à la gastrografine). Les mouvements de l'aimant ont été caractérisés selon leur périodicité, leur amplitude ou leur vitesse pour chaque segment du tractus digestif. Ces informations physiologiques sont bien corrélées à celles obtenues par des méthodes établies d'étude de la motilité gastro-intestinale. Ce travail démontre la faisabilité d'un examen de la motilité gastro-intestinal chez l'Homme par la méthode de Magnet Tracking. La technique fournit les données anatomiques et permet d'analyser en temps réel la dynamique des mouvements du tube digestif. Cette méthode peu invasive ouvre d'intéressantes perspectives pour l'étude de motilité dans des conditions physiologiques et pathologiques. Des expériences visant à valider cette approche en tant que méthode clinique sont en voie de réalisation dans plusieurs centres en Suisse et à l'étranger. SUMMARY Methodological improvements realised over the last decades have permitted a better understanding of gastrointestinal motility. Nevertheless, a method allowing a continuous following of lumina' contents is still lacking. In order to study the human digestive tract motility, a new minimally invasive technique was developed at the Department of Physiology in collaboration with Swiss Federal Institute of Technology. The method is based on the detection of magnetic field generated by swallowed ferromagnetic materials. The aim of our work was to demonstrate the feasibility of this new approach to study the human gastrointestinal motility. The magnet used was a cylinder (ø6x7mm, 0.2 cm3) coated with silicon. The magnet tracking system consisted of a 4x4 matrix of sensors based on the Hall effect Signals from the sensors were digitised and sent to a laptop computer for processing and storage. Specific software was conceived to analyse in real time the progression of the magnet through the gastrointestinal tube. Ten young and healthy volunteers were enrolled in the study. After a fasting period of 12 hours, they swallowed the magnet. The pill was then tracked for two consecutive days for 34 hours on average. Each subject was studied once except one who was studied seven times. Every subject laid on his back for the entire experiment but could interrupt it at anytime. Evacuation of the magnet was controlled in all subjects. The examination was well tolerated. The pill could be followed from the esophagus to the rectum. The trajectory of the magnet represented a "mould" of the anatomy of the digestive tube: a good superimposition with radiological anatomy (gastrografin contrast and CT) was obtained. Movements of the magnet were characterized by periodicity, velocity, and amplitude of displacements for every segment of the digestive tract. The physiological information corresponded well to data from current methods of studying gastrointestinal motility. This work demonstrates the feasibility of the new approach in studies of human gastrointestinal motility. The technique allows to correlate in real time the dynamics of digestive movements with the anatomical data. This minimally invasive method is ready for studies of human gastrointestinal motility under physiological as well as pathological conditions. Studies aiming at validation of this new approach as a clinically relevant tool are being realised in several centres in Switzerland and abroad. Abstract: A new minimally invasive technique allowing for anatomical mapping and motility studies along the entire human digestive system is presented. The technique is based on continuous tracking of a small magnet progressing through the digestive tract. The coordinates of the magnet are calculated from signals recorded by 16 magnetic field sensors located over the abdomen. The magnet position, orientation and trajectory are displayed in real time. Ten young healthy volunteers were followed during 34 h. The technique was well tolerated and no complication was encountered, The information obtained was 3-D con-figuration of the digestive tract and dynamics of the magnet displacement (velocity, transit time, length estimation, rhythms). In the same individual, repea-ted examination gave very reproducible results. The anatomical and physiological information obtained corresponded well to data from current methods and imaging. This simple, minimally invasive technique permits examination of the entire digestive tract and is suitable for both research and clinical studies. In combination with other methods, it may represent a useful tool for studies of Cl motility with respect to normal and pathological conditions.
Resumo:
Dans une étude précédente, nous avons démontré qu'un soutieninformatique rappelant les Recommandations de Pratiques Cliniques(RPC) améliore la gestion de la douleur aiguë aux urgences à moyenterme (JEUR 2009;22:A88). Par contre, son acceptation par lessoignants et son impact sur leurs connaissances des RPC sontinconnus. But de l'étude: mesurer l'impact du logiciel en termesd'acceptation et connaissance des RPC par l'équipe soignante.Méthode: analyse de 2 questionnaires remplis par les médecins etinfirmiers: le 1er administré en pré-, post-déploiement et 6 mois plustard (phases P1, P2 et P3) qui a évalué: a) l'appréciation subjective desconnaissances des RPC par échelle de Lickert à 5 niveaux; b) lesconnaissances objectives des RPC à l'aide de 7 questions théoriques(score max. 7 points); le 2ème administré en P2 et P3, l'utilité perçue dulogiciel (échelle à 4 niveaux). Analyses statistiques par test de chi2outest exact de Fisher; p bilatéral <0.05 significatif. Résultats: la proportiondes soignants estimant avoir une bonne connaissance des RPC apassé de 48% (45/94) en P1, à 73% (83/114) puis 84% (104/124) en P2et P3, respectivement (p <0.0001). Score des connaissances: cftableau. Entre P2 et P3, l'appréciation globale de l'utilité du logiciel s'estaméliorée: la proportion des avis favorables a passé de 59% (47/79) à82% (96/117) (p = 0.001). Conclusion: ce logiciel a été bien accepté et apermis une amélioration significative des connaissances des RPC parles soignants.
Resumo:
Ce travail n'a pas pour but d'établir une histoire du choeur tragique pour ainsi dire 'd'anthologie', mais bien plutôt de tracer un parcours sélectif et dynamique, en suivant l'évolution de ses formes et de ses fonctions dans la tragédie italienne, à partir du début du XVIe siècle jusqu' à la production alfiérienne et au retour du choeur dans le théâtre de Manzoni ; à cela s'ajoute un exercice en dehors du genre dramatique tel que le Dialogo di Federico Ruysch e delle sue mummie dans les Operette morali di Giacomo Leopardi. Dans la première partie - la plus ample et complexe, portant sur l'emploi du choeur dans la tragédie de la Renaissance - on essaye de cerner le contexte qui favorise la persistance d'un espace choral en examinant plusieurs commentaires de la Poétique aristotélicienne, et des essais de théorie dramaturgique comme Della poesia rappresentativa de Angelo Ingegneri, ou le Discorso intorno al comporre de Giambattista Giraldi Cinzio. À côté de la discussion sur le rôle du choeur on envisage aussi le profil formel des sections chorales, en s'appuyant sur l'analyse métrique, dans le cadre plus général du 'petrarchismo metrico', et en particulier de la réception de la chanson pétrarquesque. Interroger la présence de trois constantes thématiques - par exemple la forme de l'hymne à Éros - signifie en suite relever l'importance de Sophocle pour le théâtre de la Renaissance dans la perspective du choeur. Cette première section est complétée par un chapitre entièrement consacré à Torquato Tasso et à son Re Torrismondo, qui présente un troisième chant choral de grande épaisseur philosophique, central dans l'économie du drame et analysé ici à travers un exercice de lecture qui utilise à la fois les instruments de la stylistique, de l'intertextualité, et de l'intratextualité concernant l'entier corpus poétique et philosophique tassien, de ses Rime aux Dialoghi. La deuxième section, qui commence par une exploration théorique de la question du choeur, conduite par exemple sur les textes de Paolo Beni e Tommaso Campanella, a pour cible principale de expliquer comment le choeur assume le rôle d'un vrai 'personnage collectif' dans le théâtre de Federico Della Valle : un choeur bien installé dans l'action tragique, mais conservant au même temps les qualités lyriques et philosophiques d'un chant riche de mémoire culturelle et intertextuelle, de la Phaedra de Sénèque à la Commedia dantesque dans la Reina di Scozia, centre principal de l'analyse et coeur du catholicisme contreréformiste dellavallien. Dans la troisième partie le discours se concentre sur les formes de la métamorphose, pour ainsi dire, du choeur : par exemple la figure du confident, conçu comme un substitut du groupe choral dans les discussions des théoriciens et des auteurs français - voir Corneille, D'Aubignac, Dacier - et italiens, de Riccoboni à Calepio et Maffei. Cependant dans cette section il est surtout question de la définition de l'aria mélodramatique compris comme le 'nouveau choeur' des Modernes, formulée par Ranieri Calzabigi et par Metastasio. Il s'agit donc ici de mettre en relation l'élaboration théorique contenue dans la Dissertazione de Calzabigi et dans l'Estratto de l'Arte poetica de Metastasio avec le premier et unique essai tragique de jeunesse de ce dernier, le Giustino, et le livret de son Artaserse. On essaye de montrer le profond lien entre l'aria et l'action dramatique : donc c'est le dramma musicale qui est capable d'accueillir la seule forme de choeur - l'aria - encore possible dans le théâtre moderne, tandis que le choeur proprement tragique est désormais considéré inutilisable et pour ainsi dire hors-contexte (sans toutefois oublier qu'à la fin du siècle Vittorio Alfieri essayait de ne pas renoncer au choeur dans sa traduction des Perses d'Eschyle ; et surtout dans un essai tragique comme l'Alceste seconda ou dans sa tramelogedia, l'Abele). Comme conclusion une section contenant des remarques qui voudrait juste indiquer trois possibles directions de recherche ultérieure : une comparaison entre Manzoni et Leopardi - dans la perspective de leur intérêt pour le choeur et de la différence entre le sujet lyrique manzonien et celui léopardien ; une incursion dans le livret du mélodrame verdien, afin de comprendre la fonction du choeur manzonien et sa persistance dans le texte pour l'opéra ; et enfin quelque note sur la réception du choeur manzonien et du Coro di morti léopardien dans le XXe siècle, en assumant comme point d'observation la poésie de Carlo Michelstaedter, Andrea Zanzotto et Franco Fortini. Il lavoro non intende tracciare una storia 'da manuale' del coro tragico, ma piuttosto indicare un percorso selettivo e dinamico, seguendo l'evoluzione delle sue forme e delle sue funzioni nella tragedia italiana, a partire dall'inizio del sedicesimo secolo per arrivare alla produzione alfieriana e al ritorno del coro nel teatro di Manzoni; a ciò si aggiunge una prova estranea al genere drammatico come il Dialogo di Federico Ruysch e delle sue mummie nelle Operette morali di Giacomo Leopardi. Nella prima parte - la più ampia e complessa, riguardante l'impiego del coro nella tragedia rinascimentale - si cerca di ricostruire il contesto che favorisce la persistenza dello spazio corale attraverso l'esame di diversi commenti alla Poetica aristotelica, e di alcuni saggi di teoria drammaturgica come Della poesia rappresentativa di Angelo Ingegneri, o il Discorso intorno al comporre di Giambattista Giraldi Cinzio. La discussione sul ruolo del coro è affiancata dall'esame del profilo formale delle sezioni corali, grazie a un'indagine metrica nel quadro del più ampio petrarchismo metrico cinquecentesco, e in particolare nel quadro della ricezione della formacanzone petrarchesca. Interrogare la presenza di tre costanti tematiche - per esempio la forma dell'inno a Eros - significherà in seguito rilevare l'importanza di Sofocle per il teatro rinascimentale anche nella prospettiva angolata del coro. Questa prima sezione è completata da un capitolo interamente dedicato a Torquato Tasso e al suo Re Torrismondo, che presenta un terzo canto corale di grande spessore stilistico e filosofico, centrale nell'economia del dramma e analizzato qui attraverso un esercizio di lettura che si serve degli strumenti della stilistica e dell'intertestualità, oltre che del rapporto intratestuale fra i vari luoghi del corpus tassiano, dalle Rime ai suoi Dialoghi. La seconda sezione, che si avvia con un'esplorazione teorica della questione del coro nel Seicento - condotta per esempio sui testi di Paolo Beni e Tommaso Campanella - ha per fulcro la descrizione di un coro quale 'personaggio collettivo' nelle tragedie di Federico Della Valle: un coro ben inserito nell'azione tragica, ma che conserva allo stesso tempo le qualità liriche e filosofiche di un canto ricco di memoria culturale e intertestuale, dalla Fedra di Seneca alla Commedia dantesca, nella sua Reina di Scozia, centro dell'analisi e cardine del cattolicesimo controriformista dellavalliano. Nella terza sezione il discorso si concentra sulle forme della metamorfosi, per così dire, del coro: per esempio la figura del confidente, interpretato come un sostituto del gruppo corale nelle discussioni di teorici e autori francesi - Corneille, D'Aubignac, Dacier - e italiani, da Riccoboni a Calepio e Maffei. Ma qui ci si rivolge anzitutto alla definizione dell'aria melodrammatica, sentita quale 'nuovo coro' dei Moderni da Ranieri Calzabigi e Pietro Metastasio. Si tratterà dunque di mettere in relazione l'elaborazione teorica svolta nella Dissertazione di Calzabigi e nell'Estratto dell'arte poetica di Metastasio con il primo e unico - e giovanile - tentativo tragico di quest'ultimo, il Giustino, e con il libretto del suo Artaserse. L'intenzione è quella di mostrare il profondo legame tra l'aria e l'azione drammatica: è perciò il dramma musicale che è capace di accogliere la sola forma di coro - l'aria - ancora possibile nel teatro moderno, mentre il vero e proprio coro tragico si rassegna ormai a essere considerato inutile e per così dire fuori contesto (senza dimenticare, tuttavia, che al chiudersi del secolo Vittorio Alfieri tentava di non rinunciare al coro nella sua traduzione dei Persiani di Eschilo; e soprattutto in un tentativo tragico come la sua Alceste seconda o nella tramelogedia Abele). In conclusione una più veloce sezione che vorrebbe semplicemente indicare qualche altra possibile direzione di ricerca: un confronto fra Manzoni e Leopardi - nella prospettiva del coro interesse per il coro, e della differenza fra il soggetto lirico manzoniano e quello leopardiano; un'incursione nel libretto del melodramma verdiano, per misurarvi la funzione del coro manzoniano e la sua persistenza nel testo operistico; e infine qualche appunto sulla ricezione del coro manzoniano e del Coro di morti di Leopardi nel Novecento, assumendo quale punto d'osservazione la poesia di Carlo Michelstaedter, Andrea Zanzotto e Franco Fortini.
Resumo:
Vivre, c'est passer d'un espace à un autre en essayant le plus possible de ne pas se cogner déclamait George Pérec. Cet énoncé poétiquement géographique pourrait résumer d'une certaine façon le défi de connaissance saisi par cette recherche. L'enjeu consiste effectivement à envisager le fait à'habiter, entendu dans son acception du « faire avec de l'espace » de la part des individus, comme n'allant pas de soi, de mettre en exergue le caractère problématique que constitue la pratique d'un lieu pour un individu. A ce titre, l'une des propositions de ce travail est de considérer tout lieu comme un assemblage d'épreuves spatiales face auxquelles les individus sont confrontés. La question se pose alors de savoir comment les individus font avec ces épreuves spatiales. L'hypothèse défendue dans ce travail est celle de la mobilisation, par ces derniers, de compétences - ressortissant d'une « capacité à » telle qu'exprimée par Wittgenstein dans le domaine linguistique, c'est-à-dire d'une « maîtrise technique » - et d'un capital spatial - que l'on peut faire synthétiquement correspondre à l'expérience accumulée par un individu en terme de pratique de lieux. L'argumentation étaye l'hypothèse que les manières d'habiter touristiquement une métropole dépendent notamment de ces deux éléments interdépendants dont dispose tout individu de façon variable et évolutive ; leur importance, sans déterminer aucunement des pratiques spécifiques, participe d'une maîtrise accrue de l'espace, d'une facilité pour faire avec les épreuves spatiales, atténuant le caractère potentiellement contraignant de ces dernières. Il s'agit donc d'une enquête menant une réflexion tout à la fois sur la dimension actorielle des individus, mais également sur le lieu en tant qu'espace habité : travailler sur cette question revient à investir la question de l'agencement urbain d'un lieu, c'est-à-dire d'appréhender la façon dont une configuration urbaine (les épreuves spatiales coïncidant avec les principales caractéristiques de cette dernière) est habitée, et plus particulièrement en l'occurrence ici, est habitée touristiquement. Pour aborder empiriquement cette problématique, l'enquête se focalise donc sur les touristes : d'une part pour leur faible degré de familiarité avec le lieu pratiqué (faire avec cet espace ne relève donc pas d'une routine) et d'autre part parce que leur présence dorénavant massive au sein des métropoles a des effets sur l'agencement de ces lieux qu'il est nécessaire d'envisager. Le laboratoire utilisé est celui de Los Angeles, cette aire urbaine de 18 millions de résidents : son étalement considérable, l'absence d'un centre-ville historiquement important, et la forte prégnance de sa métrique automobile étant des caractéristiques qui font de ce lieu un « exceptionnel normal » aux épreuves spatiales particulièrement proéminentes. La recherche avance à ce titre des arguments permettant d'en souligner un agencement, par les manières d'habiter des touristes, différencié du modèle classique de la métropole touristique : pour exprimer cette singularité, l'enquête étaye l'hypothèse consistant à qualifier ce lieu de métapole touristique. - Living is moving from one space to another while trying not to collide claimed George Pérec. This poetically geographic statement could in a way sum up the challenge seized by this research. The challenge is indeed to consider the fact of dwelling, in the sense of "make do with space" on the part of individuals, as not an evidence but highlighting the problematic characteristics of the practice of a place by people. Accordingly, one of the proposals of this work is to consider each place as a gathering of spatial stakes against which individuals are faced. The question then arises how are individuals facing these spatial stakes. The hypothesis debated in this work is that of the mobilization of skills such as "the ability of' as expressed by Wittgenstein in the linguistic field, i.e. a "technical mastery" - and a spatial capital - that can synthetically correspond to the experience accumulated by one single individual in terms of practice of places. Argument supports the hypothesis that the ways of touristically dwelling a metropolis depend on these two interdependent elements which everyone deal with in a variable and scalable manner; their importance, without determining any specific practices, participates in an increased proficiency of space, easing to make do with the space stakes, moderating the potentially binding character of the latter. It is therefore a survey leading a reflection both on the actorial dimension of individuals, but also on the place as a living space: working on this issue is exploring the question of the urban layout of a place, i.e. to understand how an urban configuration (the space stakes coinciding with the main features of the latter) is inhabited, and in particular in the present case, is touristically dwelled. To empirically address this issue, the inquiry therefore focuses on tourists: on the one hand for their low degree of familiarity with the place (make do with this space is therefore not a routine) and secondly because their now massive presence within the metropolis has effects on the layout of these places that is necessary to consider. The laboratory used is that of Los Angeles, this urban area of 18 million residents: its considerable spread, the absence of an historically important downtown» and high salience of "automobile metric" are features that make this place a "normal exceptional" with particularly prominent space stakes. Hence, research advances the arguments underlining the layout, by the ways of tourists dwelling different from the classical model of the metropolis: to express this uniqueness, the survey supports hypothesis to describe this place as a tourist metapolis.
Resumo:
TEXTABLE est un nouvel outil open source de programmation visuelle pour l'analyse de données textuelles. Les implications de la conception de ce logiciel du point de vue de l'interopérabilité et de la flexibilité sont abordées, ainsi que la question que son adéquation pour un usage pédagogique. Une brève introduction aux principes de la programmation visuelle pour l'analyse de données textuelles est également proposée.
Evaluation in vitro de la réactivité des particules fines et ultrafines : rapport scientifique final
Resumo:
Une des percées les plus importantes dans la recherche sur les nanoparticules (ambiantes et manufacturées) a été la reconnaissance de leur potentiel à générer un stress oxydatif au niveau cellulaire. Dans cette optique, la mesure du potentiel oxydant intrinsèque des particules pourrait présenter une première étape dans l'évaluation des dangers. Ce projet méthodologique avait pour but de caractériser le potentiel oxydant de différentes nanoparticules « modèles » (ambiantes et manufacturées) au moyen de trois tests acellulaires (Test DTT, Test DCFH, Test oxymétrique) et d'utiliser ces résultats pour proposer une méthode de « référence ». D'autre part, nous avons appliqué la méthode sélectionnée à deux cas (exposition d'ouvriers à des particules de combustion et évaluation du danger de différentes nanoparticules manufacturées) afin de déterminer quels sont les paramètres qui influencent la mesure. Les résultats obtenus indiquent que la préparation des suspensions joue un rôle dans la mesure de ce potentiel oxydant. La réactivité dépend de la concentration du surfactant et de la durée de sonication. D'autre part, l'ordre de réactivité est dépendant de la métrique utilisée (masse ou surface) pour exprimer les résultats. Parmi les trois tests considérés, le test DTT pourrait être le plus utile pour effectuer une évaluation initiale du danger potentiel de nanoparticules ambiantes ou manufacturées. Ce test pourrait être intégré dans une stratégie d'évaluation de la toxicité des nanoparticules. Le test DTT correspond bien un test intégratif. Pour des situations de travail dans lesquelles les particules de combustion sont majoritaires, les paramètres physico-chimiques qui corrèlent de manière significative avec la réactivité DTT sont la surface des particules, les concentrations de carbone organique, la somme des concentrations de quatre quinones et les concentrations de fer et cuivre. Un nombre plus faible de corrélations est observé dans des ateliers mécaniques, suggérant que d'autres composés non mesurés interviennent également dans cette réactivité. Concernant les nanoparticules carbonées manufacturées, les fonctions chimiques de surface corrélées avec la réactivité DTT sont des fonctions acides et des fonctions inconnues pouvant dismuter. D'autre part, la solubilité et la possibilité de former des complexes avec le DTT sur la surface des NP manufacturées influencent le résultat de réactivité.
Resumo:
L'article présente les étapes de la mise en place d'une veille bibliographique (ou veille scientifique) thématique effectuée conjointement depuis 2005 par 4 institutions francophones du domaine de la santé au travail : l'INRS (France), l'IRSST (Québec), l'IST (Suisse) et l'UCL (Belgique).La thématique suivie est celle de la surveillance biologique de l'exposition aux produits chimiques en milieu de travail. Les données recueillies et mises en forme par les documentalistes servent aux chercheurs spécialistes du sujet non seulement pour suivre les nouveautés du domaine, mais aussi pour documenter des cours et mettre à jour des guides de surveillance biologique. Les différentes étapes de l'approche méthodologique du projet sont décrites : le choix des bases de données à interroger et la mise au point de la stratégie de recherche, la mise en place d'une procédure de partage des tâches pour toutes les étapes du processus de veille qui se répètent à chaque mise à jour (interrogation, création de bases de données avec le logiciel Reference Manager, mise en forme et indexation des références, création et mise à disposition des partenaires des bases de données consolidées au fil du temps avec tous les articles analysés), les moyens administratifs, humains et techniques d'échange de fichiers et les essais pour élargir la veille à la surveillance de pages Web sélectionnées.Un bilan chiffré des six années de la veille est également donné.L'information récoltée et analysée durant les deux dernières années par les partenaires du projet fera l'objet d'un second article axé sur les principales tendances de la thématique choisie.
Resumo:
A mobile ad hoc network (MANET) is a decentralized and infrastructure-less network. This thesis aims to provide support at the system-level for developers of applications or protocols in such networks. To do this, we propose contributions in both the algorithmic realm and in the practical realm. In the algorithmic realm, we contribute to the field by proposing different context-aware broadcast and multicast algorithms in MANETs, namely six-shot broadcast, six-shot multicast, PLAN-B and ageneric algorithmic approach to optimize the power consumption of existing algorithms. For each algorithm we propose, we compare it to existing algorithms that are either probabilistic or context-aware, and then we evaluate their performance based on simulations. We demonstrate that in some cases, context-aware information, such as location or signal-strength, can improve the effciency. In the practical realm, we propose a testbed framework, namely ManetLab, to implement and to deploy MANET-specific protocols, and to evaluate their performance. This testbed framework aims to increase the accuracy of performance evaluation compared to simulations, while keeping the ease of use offered by the simulators to reproduce a performance evaluation. By evaluating the performance of different probabilistic algorithms with ManetLab, we observe that both simulations and testbeds should be used in a complementary way. In addition to the above original contributions, we also provide two surveys about system-level support for ad hoc communications in order to establish a state of the art. The first is about existing broadcast algorithms and the second is about existing middleware solutions and the way they deal with privacy and especially with location privacy. - Un réseau mobile ad hoc (MANET) est un réseau avec une architecture décentralisée et sans infrastructure. Cette thèse vise à fournir un support adéquat, au niveau système, aux développeurs d'applications ou de protocoles dans de tels réseaux. Dans ce but, nous proposons des contributions à la fois dans le domaine de l'algorithmique et dans celui de la pratique. Nous contribuons au domaine algorithmique en proposant différents algorithmes de diffusion dans les MANETs, algorithmes qui sont sensibles au contexte, à savoir six-shot broadcast,six-shot multicast, PLAN-B ainsi qu'une approche générique permettant d'optimiser la consommation d'énergie de ces algorithmes. Pour chaque algorithme que nous proposons, nous le comparons à des algorithmes existants qui sont soit probabilistes, soit sensibles au contexte, puis nous évaluons leurs performances sur la base de simulations. Nous montrons que, dans certains cas, des informations liées au contexte, telles que la localisation ou l'intensité du signal, peuvent améliorer l'efficience de ces algorithmes. Sur le plan pratique, nous proposons une plateforme logicielle pour la création de bancs d'essai, intitulé ManetLab, permettant d'implémenter, et de déployer des protocoles spécifiques aux MANETs, de sorte à évaluer leur performance. Cet outil logiciel vise à accroître la précision desévaluations de performance comparativement à celles fournies par des simulations, tout en conservant la facilité d'utilisation offerte par les simulateurs pour reproduire uneévaluation de performance. En évaluant les performances de différents algorithmes probabilistes avec ManetLab, nous observons que simulateurs et bancs d'essai doivent être utilisés de manière complémentaire. En plus de ces contributions principales, nous fournissons également deux états de l'art au sujet du support nécessaire pour les communications ad hoc. Le premier porte sur les algorithmes de diffusion existants et le second sur les solutions de type middleware existantes et la façon dont elles traitent de la confidentialité, en particulier celle de la localisation.
Resumo:
With the advancement of high-throughput sequencing and dramatic increase of available genetic data, statistical modeling has become an essential part in the field of molecular evolution. Statistical modeling results in many interesting discoveries in the field, from detection of highly conserved or diverse regions in a genome to phylogenetic inference of species evolutionary history Among different types of genome sequences, protein coding regions are particularly interesting due to their impact on proteins. The building blocks of proteins, i.e. amino acids, are coded by triples of nucleotides, known as codons. Accordingly, studying the evolution of codons leads to fundamental understanding of how proteins function and evolve. The current codon models can be classified into three principal groups: mechanistic codon models, empirical codon models and hybrid ones. The mechanistic models grasp particular attention due to clarity of their underlying biological assumptions and parameters. However, they suffer from simplified assumptions that are required to overcome the burden of computational complexity. The main assumptions applied to the current mechanistic codon models are (a) double and triple substitutions of nucleotides within codons are negligible, (b) there is no mutation variation among nucleotides of a single codon and (c) assuming HKY nucleotide model is sufficient to capture essence of transition- transversion rates at nucleotide level. In this thesis, I develop a framework of mechanistic codon models, named KCM-based model family framework, based on holding or relaxing the mentioned assumptions. Accordingly, eight different models are proposed from eight combinations of holding or relaxing the assumptions from the simplest one that holds all the assumptions to the most general one that relaxes all of them. The models derived from the proposed framework allow me to investigate the biological plausibility of the three simplified assumptions on real data sets as well as finding the best model that is aligned with the underlying characteristics of the data sets. -- Avec l'avancement de séquençage à haut débit et l'augmentation dramatique des données géné¬tiques disponibles, la modélisation statistique est devenue un élément essentiel dans le domaine dé l'évolution moléculaire. Les résultats de la modélisation statistique dans de nombreuses découvertes intéressantes dans le domaine de la détection, de régions hautement conservées ou diverses dans un génome de l'inférence phylogénétique des espèces histoire évolutive. Parmi les différents types de séquences du génome, les régions codantes de protéines sont particulièrement intéressants en raison de leur impact sur les protéines. Les blocs de construction des protéines, à savoir les acides aminés, sont codés par des triplets de nucléotides, appelés codons. Par conséquent, l'étude de l'évolution des codons mène à la compréhension fondamentale de la façon dont les protéines fonctionnent et évoluent. Les modèles de codons actuels peuvent être classés en trois groupes principaux : les modèles de codons mécanistes, les modèles de codons empiriques et les hybrides. Les modèles mécanistes saisir une attention particulière en raison de la clarté de leurs hypothèses et les paramètres biologiques sous-jacents. Cependant, ils souffrent d'hypothèses simplificatrices qui permettent de surmonter le fardeau de la complexité des calculs. Les principales hypothèses retenues pour les modèles actuels de codons mécanistes sont : a) substitutions doubles et triples de nucleotides dans les codons sont négligeables, b) il n'y a pas de variation de la mutation chez les nucléotides d'un codon unique, et c) en supposant modèle nucléotidique HKY est suffisant pour capturer l'essence de taux de transition transversion au niveau nucléotidique. Dans cette thèse, je poursuis deux objectifs principaux. Le premier objectif est de développer un cadre de modèles de codons mécanistes, nommé cadre KCM-based model family, sur la base de la détention ou de l'assouplissement des hypothèses mentionnées. En conséquence, huit modèles différents sont proposés à partir de huit combinaisons de la détention ou l'assouplissement des hypothèses de la plus simple qui détient toutes les hypothèses à la plus générale qui détend tous. Les modèles dérivés du cadre proposé nous permettent d'enquêter sur la plausibilité biologique des trois hypothèses simplificatrices sur des données réelles ainsi que de trouver le meilleur modèle qui est aligné avec les caractéristiques sous-jacentes des jeux de données. Nos expériences montrent que, dans aucun des jeux de données réelles, tenant les trois hypothèses mentionnées est réaliste. Cela signifie en utilisant des modèles simples qui détiennent ces hypothèses peuvent être trompeuses et les résultats de l'estimation inexacte des paramètres. Le deuxième objectif est de développer un modèle mécaniste de codon généralisée qui détend les trois hypothèses simplificatrices, tandis que d'informatique efficace, en utilisant une opération de matrice appelée produit de Kronecker. Nos expériences montrent que sur un jeux de données choisis au hasard, le modèle proposé de codon mécaniste généralisée surpasse autre modèle de codon par rapport à AICc métrique dans environ la moitié des ensembles de données. En outre, je montre à travers plusieurs expériences que le modèle général proposé est biologiquement plausible.
Resumo:
Introduction: Suite à la canicule de 2003, l'importance pour la santé publique des vagues de chaleur avait été mise en évidence. Cependant, les aspects se rapportant aux médicaments avaient été peu abordés, avant d'être davantage considérés mi-2004, notamment dans le «Plan canicule» français. La Pharmacie de l'ICHV s'est donc efforcée, au printemps 2004, de définir ses propres lignes d'action pour adapter son organisation et ses services. Objectifs: Définir au niveau des services pharmaceutiques, en particulier cliniques, des recommandations pratiques et proposer des moyens de mise en oeuvre. Méthode: Une recherche de littérature a été effectuée et a permis d'identifier les variables à prendre en compte. Basée sur celles-ci, une analyse ponctuelle (sur une journée) a été conduite à l'aide du dossier patient informatisé Phoenix® pour estimer la fréquence d'utilisation des médicaments à problème auprès d'une population considérée comme étant à risque (patients > 70 ans d'un service de chirurgie). Dans le domaine logistique, une recherche similaire a été conduite et des analyses à l'aide du logiciel Opale® ont été réalisées. Résultats: Compte tenu de la littérature, différentes variables en relation avec la pharmacothérapie sont à considérer: * Médicaments à risque (altérant la fonction rénale ou empêchant la perte calorique) ou à surveiller (dont la déshydratation influence la pharmacocinétique ou ceux aggravant les effets de la chaleur); * Patients à risque (> 70 ans ou déments); * Situations à risque (chirurgie élective, sortie d'hôpital). L'analyse en chirurgie a montré que 75% des patients étaient traités par des médicaments à risque et que 100% des patients recevaient des médicaments à surveiller. Au plan logistique, notre recherche a permis de définir un certain nombre de produits sensibles. Discussion-conclusion: Malgré les limites de cette analyse ponctuelle, mais compte tenu de la fréquence d'utilisation des médicaments à problème, le pharmacien doit, lors de canicules, pouvoir directement ou indirectement conseiller le prescripteur, p. ex., en: * relevant dans les dossiers, les patients, les situations et les médicaments à risque ou à surveiller et en formulant des propositions de prise en charge; * suivant systématiquement les fonctions rénales de ces patients; * proposant d'instaurer une alarme dans les dossiers informatisés pour aider à déceler les situations à risque. Au niveau de la pharmacie centrale et des pharmacies d'étage, la gestion de stock des produits sensibles requière diverses améliorations. La canicule constitue une problématique complexe et le pharmacien d'hôpital se doit d'y prêter attention dans ses activités. La pharmacie de l'ICHV, sur la base de ces éléments, va préparer un plan d'action à activer dans des conditions à convenir avec la direction et les hôpitaux.
Resumo:
This study aimed to investigate the impact of a communication skills training (CST) in oncology on clinicians' linguistic strategies. A verbal communication analysis software (Logiciel d'Analyse de la Communication Verbale) was used to compare simulated patients interviews with oncology clinicians who participated in CST (N = 57) (pre/post with a 6-month interval) with a control group of oncology clinicians who did not (N = 56) (T1/T2 with a 6-month interval). A significant improvement of linguistic strategies related to biomedical, psychological and social issues was observed. Analysis of linguistic aspects of videotaped interviews might become in the future a part of individualised feedback in CST and utilised as a marker for an evaluation of training.