479 resultados para lochleitende Nanostab-Ensembles
Resumo:
La possibilité d’estimer l’impact du changement climatique en cours sur le comportement hydrologique des hydro-systèmes est une nécessité pour anticiper les adaptations inévitables et nécessaires que doivent envisager nos sociétés. Dans ce contexte, ce projet doctoral présente une étude sur l’évaluation de la sensibilité des projections hydrologiques futures à : (i) La non-robustesse de l’identification des paramètres des modèles hydrologiques, (ii) l’utilisation de plusieurs jeux de paramètres équifinaux et (iii) l’utilisation de différentes structures de modèles hydrologiques. Pour quantifier l’impact de la première source d’incertitude sur les sorties des modèles, quatre sous-périodes climatiquement contrastées sont tout d’abord identifiées au sein des chroniques observées. Les modèles sont calés sur chacune de ces quatre périodes et les sorties engendrées sont analysées en calage et en validation en suivant les quatre configurations du Different Splitsample Tests (Klemeš, 1986;Wilby, 2005; Seiller et al. (2012);Refsgaard et al. (2014)). Afin d’étudier la seconde source d’incertitude liée à la structure du modèle, l’équifinalité des jeux de paramètres est ensuite prise en compte en considérant pour chaque type de calage les sorties associées à des jeux de paramètres équifinaux. Enfin, pour évaluer la troisième source d’incertitude, cinq modèles hydrologiques de différents niveaux de complexité sont appliqués (GR4J, MORDOR, HSAMI, SWAT et HYDROTEL) sur le bassin versant québécois de la rivière Au Saumon. Les trois sources d’incertitude sont évaluées à la fois dans conditions climatiques observées passées et dans les conditions climatiques futures. Les résultats montrent que, en tenant compte de la méthode d’évaluation suivie dans ce doctorat, l’utilisation de différents niveaux de complexité des modèles hydrologiques est la principale source de variabilité dans les projections de débits dans des conditions climatiques futures. Ceci est suivi par le manque de robustesse de l’identification des paramètres. Les projections hydrologiques générées par un ensemble de jeux de paramètres équifinaux sont proches de celles associées au jeu de paramètres optimal. Par conséquent, plus d’efforts devraient être investis dans l’amélioration de la robustesse des modèles pour les études d’impact sur le changement climatique, notamment en développant les structures des modèles plus appropriés et en proposant des procédures de calage qui augmentent leur robustesse. Ces travaux permettent d’apporter une réponse détaillée sur notre capacité à réaliser un diagnostic des impacts des changements climatiques sur les ressources hydriques du bassin Au Saumon et de proposer une démarche méthodologique originale d’analyse pouvant être directement appliquée ou adaptée à d’autres contextes hydro-climatiques.
Resumo:
New high-resolution seismic data complemented with bedrock samples allowed us to propose a revised geological map of the Bay of Seine and to better define the control by the geological substrate on the morphogenesis and evolution of the Seine River during Pleistocene times. The new data confirm previous works. The Bay of Seine can be divided into two geological parts: a Mesozoic monocline domain occupying most of the bay and a syncline domain, mostly Tertiary, in the north, at the transition with the Central English Channel area. The highlighting of Eocene synsedimentary deformations, marked by sliding blocks in the syncline domain, is one of the most original inputs of this new study in the Bay of Seine that underlines the significant role of the substrate on the formation of the Seine paleo-valley. In the monocline domain, three terraces, pre-Saalian, Saalian and Weischelian in age respectively, constitute the infill of the paleovalley, preferentially incised into the middle to upper Jurassic marl-dominated formations, and bounded to the north by the seaward extension of the Oxfordian cuesta. The three terraces are preserved only along the northern bank of the paleovalley, evidencing a NE-to-SW migration of the successive valleys during the Pleistocene. We assume this displacement results from the tectonic tilt of the Paris Basin western margin. In the North, the paleo-Seine is incised into the axis of the tertiary syncline, and comprises three fill terraces that are assumed to have similar ages than those of the terraces. The fill terrace pattern is associated to the subsiding character of this northern domain of the Bay of Seine.
Resumo:
Quantum sensors based on coherent matter-waves are precise measurement devices whose ultimate accuracy is achieved with Bose-Einstein condensates (BECs) in extended free fall. This is ideally realized in microgravity environments such as drop towers, ballistic rockets and space platforms. However, the transition from lab-based BEC machines to robust and mobile sources with comparable performance is a challenging endeavor. Here we report on the realization of a miniaturized setup, generating a flux of 4x10(5) quantum degenerate Rb-87 atoms every 1.6 s. Ensembles of 1 x 10(5) atoms can be produced at a 1 Hz rate. This is achieved by loading a cold atomic beam directly into a multi-layer atom chip that is designed for efficient transfer from laser-cooled to magnetically trapped clouds. The attained flux of degenerate atoms is on par with current lab-based BEC experiments while offering significantly higher repetition rates. Additionally, the flux is approaching those of current interferometers employing Raman-type velocity selection of laser-cooled atoms. The compact and robust design allows for mobile operation in a variety of demanding environments and paves the way for transportable high-precision quantum sensors.
Resumo:
Antonio Salieri’s La calamita de’ cuori (1774) warrants musicological attention for what it can tell us about Salieri’s compositional craft and what it reveals about the development of form in Viennese Italian-language comic opera of the mid- and late-eighteenth century. In Part I of this dissertation, I explore the performance history of La calamita, present the first plot synopsis and English translation of the libretto, and describe the variants between Carlo Goldoni’s 1752 libretto and the revised version created for Salieri’s opera. I have collated Salieri’s holograph score, Österreichische Nationalbibliothek, Vienna, Mus. Hs. 16.508, with four copies having different relationships to it, and I propose a stemma that represents the relationships between these five sources. The analyses in Part II contribute to our understanding of formal practices in eighteenth-century drammi giocosi. My study of Salieri’s La calamita reveals his reliance on a clearly defined binary structure, referred to in this dissertation as “operatic binary form,” in almost half of the arias, ensembles, and instrumental movements of this opera. Salieri’s consistent use of operatic binary form led me to explore its use in drammi giocosi by other prominent composers of this time, including Baldassare Galuppi’s La calamita de’ cuori (1752), Wolfgang Amadeus Mozart’s Il dissoluto punito, ossia Il Don Giovanni (1787), and selected arias by Pasquale Anfossi, Florian Leopold Gassmann, Giuseppe Gazzaniga, Franz Joseph Haydn, Giovanni Paisiello, and Niccolò Piccinni dating from 1760 to 1774. This study showed that Salieri and his peers adhered to a recognizable tonal plan and set of design elements in their operatic binary forms, and that their arias fall into three distinct categories defined by the tonality at the beginning of the second half of the binary structure. The analysis presented here adds to our present understanding of operatic form in mid- and late-century drammi giocosi and shows that in La calamita de’ cuori, Salieri was following the normative formal procedures of his time.
Resumo:
Chamber music with piano comprises some of the greatest masterpieces in the Western canon. The works range from duo sonatas with various instruments through septets. In regard to duo sonatas, the violin is the instrument most frequently paired with the piano. Of all the chamber works for larger ensembles, the most popular is the quintet. In this dissertation, I will be exploring the similarities and differences between the duo sonatas and quintets of a given composer. I will be surveying Robert Schumann’s Piano Quintet in E-flat Major, Op. 44 along with his Violin and Piano Sonata in A Minor, Op. 105. The next pairing will be Johannes Brahms’ Piano Quintet in F Minor, Op. 34 and his Piano and Violin Sonata in D Minor, Op. 108. Dmitri Shostakovich’s Piano Quintet in G Minor, Op. 57 and his Cello and Piano Sonata in D Minor, Op. 40 will be the last two works examined in this dissertation. This dissertation project consisted of three recitals, presented in the Gildenhorn Recital Hall at the Clarice Smith Performing Arts Center of the University of Maryland. The recitals featured works by Johannes Brahms, Robert Schumann and Dmitri Shostakovich and took place on March 14, 2014, February 13, 2015 and November 22, 2015. All three recitals were recorded on compact discs, which can be accessed at the Digital Repository at the University of Maryland (DRUM) and at the University of Maryland Hornbake Library.
Resumo:
For this project I prepared a series of recitals featuring music for horn and percussion, in which the horn part featured extended horn techniques. For this project, I considered anything beyond the open or muted horn an extended technique. These techniques range from the common hand-stopped note passages to complex new techniques involving half-valves, multi-phonics, and more, for new sounds desired by the composer. There are several pieces written for solo horn and percussion, with ensembles ranging from simple duets to solo horn with a full percussion ensemble. However, few include extended techniques for the horn. All of these select pieces are lesser known because of their difficulty, primarily because of the challenge of the extended techniques requested by the composer. In the introduction to this paper I give a brief background to the project, where the current repertoire stands, and my experiences with commissioning works for this genre. I then give a brief history and how-to on the more common extended techniques, which were found in almost every piece. I separated these techniques so that they could be referenced in the performance notes without being extremely repetitive in their description. Then follows the main performance notes of the repertoire chosen, which includes a brief description of the piece itself and a longer discussion for performers and composers who wish to learn more about these techniques. In this section my primary focus is the extended techniques used and I provide score samples with permission to further the education of the next musicians to tackle this genre. All works performed for this project were recorded and accompany this paper in the Digital Repository at the University of Maryland (DRUM). The following works were included in this project: o Howard J. Buss, Dreams from the Shadows (2015) o Howard J. Buss, Night Tide (1995) o George Crumb, An Idyll for the Misbegotten, trans. Robert Patterson (1986/1997) o Charles Fernandez, Metamorphosis: A Horn’s Life, “Prenatal and Toddler” (2016, unfinished) o Helen Gifford, Of Old Angkor (1995) o Douglas Hill, Thoughtful Wanderings… (1990) o Pierre-Yves Level, Duetto pour Cor en Fa et Percussion (1999) o David Macbride, Elegy for Horn and Timpani (2009) o Brian Prechtl, A Song of David (1995) o Verne Reynolds, HornVibes (1986) o Pablo Salazar, Cincontar (2016) o Mark Schultz, Dragons in the Sky (1989) o Faye-Ellen Silverman, Protected Sleep (2007) o Charles Taylor, Sonata for Horn and Marimba (1991) o Robert Wolk, Tessellations (2016) With this project, I intend to promote these pieces and the techniques used to encourage more works written in this style, and reveal to fellow horn players that the techniques should not prevent these great works from being performed. Due to the lack of repertoire, I successfully commissioned new pieces featuring extended techniques, which were featured in the final recital.
Resumo:
The purpose of this dissertation is to produce a new Harmonie arrangement of Mozart’s Die Zauberflöte suitable for modern performance, bringing Joseph Heidenreich’s 1782 arrangement—one of the great treasures of the wind repertoire—to life for future performers and audiences. I took advantage of the capabilities of modern wind instruments and performance techniques, and employed other instruments normally found in the modern wind ensemble to create a work in the tradition of Heidenreich’s that restored as much of Mozart’s original thinking as possible. I expanded the Harmonie band to include flute and string bass. Other instruments provide special effects, a traditional role for wind instruments in the Classical opera orchestra. This arrangement is conceived to be performed with the original vocal soloists, making it a viable option for concert performance or for smaller staged productions. It is also intended to allow the wind players to be onstage with the singers, becoming part of the dramatic action while simultaneously serving as the “opera orchestra.” This allows creative staging possibilities, and offers the wind players an opportunity to explore new aspects of performing. My arrangement also restores Mozart’s music to its original keys and retains much of his original wind scoring. This arrangement expands the possibilities for collaboration between opera studios, voice departments or community opera companies and wind ensembles. A suite for winds without voices (currently in production) will allow conductors to program this major work from the Classical era without dedicating a concert program to the complete opera. Excerpted arias and duets from this arrangement provide vocalists the option of using chamber wind accompaniment on recitals. The door is now open to arrangements of other operas by composers such as Mozart, Rossini and Weber, adding new repertoire for chamber winds and bringing great music to life in a new way.
Resumo:
Three types of forecasts of the total Australian production of macadamia nuts (t nut-in-shell) have been produced early each year since 2001. The first is a long-term forecast, based on the expected production from the tree census data held by the Australian Macadamia Society, suitably scaled up for missing data and assumed new plantings each year. These long-term forecasts range out to 10 years in the future, and form a basis for industry and market planning. Secondly, a statistical adjustment (termed the climate-adjusted forecast) is made annually for the coming crop. As the name suggests, climatic influences are the dominant factors in this adjustment process, however, other terms such as bienniality of bearing, prices and orchard aging are also incorporated. Thirdly, industry personnel are surveyed early each year, with their estimates integrated into a growers and pest-scouts forecast. Initially conducted on a 'whole-country' basis, these models are now constructed separately for the six main production regions of Australia, with these being combined for national totals. Ensembles or suites of step-forward regression models using biologically-relevant variables have been the major statistical method adopted, however, developing methodologies such as nearest-neighbour techniques, general additive models and random forests are continually being evaluated in parallel. The overall error rates average 14% for the climate forecasts, and 12% for the growers' forecasts. These compare with 7.8% for USDA almond forecasts (based on extensive early-crop sampling) and 6.8% for coconut forecasts in Sri Lanka. However, our somewhatdisappointing results were mainly due to a series of poor crops attributed to human reasons, which have now been factored into the models. Notably, the 2012 and 2013 forecasts averaged 7.8 and 4.9% errors, respectively. Future models should also show continuing improvement, as more data-years become available.
Resumo:
Hebb proposed that synapses between neurons that fire synchronously are strengthened, forming cell assemblies and phase sequences. The former, on a shorter scale, are ensembles of synchronized cells that function transiently as a closed processing system; the latter, on a larger scale, correspond to the sequential activation of cell assemblies able to represent percepts and behaviors. Nowadays, the recording of large neuronal populations allows for the detection of multiple cell assemblies. Within Hebb's theory, the next logical step is the analysis of phase sequences. Here we detected phase sequences as consecutive assembly activation patterns, and then analyzed their graph attributes in relation to behavior. We investigated action potentials recorded from the adult rat hippocampus and neocortex before, during and after novel object exploration (experimental periods). Within assembly graphs, each assembly corresponded to a node, and each edge corresponded to the temporal sequence of consecutive node activations. The sum of all assembly activations was proportional to firing rates, but the activity of individual assemblies was not. Assembly repertoire was stable across experimental periods, suggesting that novel experience does not create new assemblies in the adult rat. Assembly graph attributes, on the other hand, varied significantly across behavioral states and experimental periods, and were separable enough to correctly classify experimental periods (Naïve Bayes classifier; maximum AUROCs ranging from 0.55 to 0.99) and behavioral states (waking, slow wave sleep, and rapid eye movement sleep; maximum AUROCs ranging from 0.64 to 0.98). Our findings agree with Hebb's view that assemblies correspond to primitive building blocks of representation, nearly unchanged in the adult, while phase sequences are labile across behavioral states and change after novel experience. The results are compatible with a role for phase sequences in behavior and cognition.
Resumo:
Cette thèse a pour objet l'étude de la peinture murale des Xle-Xllle siècles dans l'actuel Canton du Tessin. A cette époque, la région qui compose ce territoire ne constituait pas une unité, mais formait les contrées plus éloignées, adossées au massif central des Alpes, des; villes et des diocèses de Côme et Milan. L'histoire de ses limites territoriales et politiques a déterminé aussi l'orientation de l'histoire des études: l'actuel Canton du Tessiri n'a pas vraiment été considéré ni par les chercheurs qui se sont occupés de la Lombardie, ni par ceux qui se sont occupés de la Suisse: d'une part, car aujourd'hui il ne fait plus partie de la Lombardie, de l'autre, parce qu'à l'époque médiévale il ne faisait pas encore partie du territoire suisse. On a donc affaire à un sujet d'étude marginalisé, qui a pendant longtemps aussi souffert de la marginalité historiographique du Tessin médiéval, considéré comme une région culturellement «en retard» par rapport aux centres de Côme et Milan. À travers le filtre historiographique naît ainsi l'exigence d'étudier ce territoire de manière cohérente, tout en étant conscient de sa fragmentation à l'époque médiévale. Par le recensement et l'analyse de tous les témoignages picturaux des XP-Xllle siècles existants ou désormais disparus, mais pour lesquels subsiste de la documentation visuelle, nous avons essayé de dresser la physionomie artistique de cette région: il s'agissait non seulement de définir leur relations avec les éléments lombards proches, mais dans l'ensemble qu'ils composent avec ceux-ci. Et c'est justement cette unité entre la réalité lombarde et celle tessinoise que, dans la limite du possible, nous avons cherché à recomposer dans ce travail. A cause de sa longue durée, l'arc chronologique choisi s'est révélé fondamental pour saisir les dynamiques et les mécanismes - indispensables, par exemple, pour comprendre le rapport entre centre et périphérie ou la géographie artistique du territoire considéré - qui échapperaient à un regard chronologique plus restreint. Cette contextualisation a mené à une ouverture ultérieure. Historiquement replacés à l'intérieur du panorama pictural lombard, les témoignages tessinois ont été l'objet d'une mise eri perspective plus large qui a permis - quand cela était possible - de les insérer dans la culture artistique contemporaine. Traversée par certaines parmi les plus importantes voies de communication reliant le Nord et le Sud des Alpes, la condition liminaire de cette région ne semble pas avoir conditionné de manière déterminante ses échanges avec d'autres réalités: elle n'apparaît ni plus réceptive, ni plus imperméable que d'autres régions lombardes envers les différents horizons culturels sur lesquels la Lombardie était ouverte, se nourrissant d'apports variés. Les points de contact relevés fournissent des précieux indices sur le fonctionnement des ateliers, sur la circulation des modèles et sur les commanditaires. Ces différents niveaux d'analyse déterminent la structure du travail: le catalogue d'oeuvres examinées - organisé en fiches ordonnées selon la chronologie établie sur la base des résultats apparus lors de l'analyse historique-artistique - est précédé par une partie introductive plus discursive. Cette dernière met en évidence et analyse les émergences principales, situant les ensembles étudiés entre eux et à l'intérieur de l'époque à laquelle ils appartiennent. La définition de la physionomie artistique de la région tessinoise apporte ainsi de nouveaux repères non seulement dans la connaissance de l'art des siècles centraux du Moyen Âge Lombard, mais aussi du vaste espace alpin situé au coeur de l'Occident médiéval.
Resumo:
Dans la pratique actuelle de la curiethérapie à bas débit, l'évaluation de la dose dans la prostate est régie par le protocole défini dans le groupe de travail 43 (TG-43) de l'American Association of Physicists in Medicine. Ce groupe de travail suppose un patient homogène à base d'eau de même densité et néglige les changements dans l'atténuation des photons par les sources de curiethérapie. En considérant ces simplifications, les calculs de dose se font facilement à l'aide d'une équation, indiquée dans le protocole. Bien que ce groupe de travail ait contribué à l'uniformisation des traitements en curiethérapie entre les hôpitaux, il ne décrit pas adéquatement la distribution réelle de la dose dans le patient. La publication actuelle du TG-186 donne des recommandations pour étudier des distributions de dose plus réalistes. Le but de ce mémoire est d'appliquer ces recommandations à partir du TG-186 pour obtenir une description plus réaliste de la dose dans la prostate. Pour ce faire, deux ensembles d'images du patient sont acquis simultanément avec un tomodensitomètre à double énergie (DECT). Les artéfacts métalliques présents dans ces images, causés par les sources d’iode, sont corrigés à l'aide d’un algorithme de réduction d'artefacts métalliques pour DECT qui a été développé dans ce travail. Ensuite, une étude Monte Carlo peut être effectuée correctement lorsque l'image est segmentée selon les différents tissus humains. Cette segmentation est effectuée en évaluant le numéro atomique effectif et la densité électronique de chaque voxel, par étalonnage stoechiométrique propre au DECT, et en y associant le tissu ayant des paramètres physiques similaires. Les résultats montrent des différences dans la distribution de la dose lorsqu'on compare la dose du protocole TG-43 avec celle retrouvée avec les recommandations du TG-186.
Resumo:
Tese (doutorado)Universidade de Brasília, Instituto de Física, Programa de Pós-Graduação em Física, 2015.
Resumo:
People go through their life making all kinds of decisions, and some of these decisions affect their demand for transportation, for example, their choices of where to live and where to work, how and when to travel and which route to take. Transport related choices are typically time dependent and characterized by large number of alternatives that can be spatially correlated. This thesis deals with models that can be used to analyze and predict discrete choices in large-scale networks. The proposed models and methods are highly relevant for, but not limited to, transport applications. We model decisions as sequences of choices within the dynamic discrete choice framework, also known as parametric Markov decision processes. Such models are known to be difficult to estimate and to apply to make predictions because dynamic programming problems need to be solved in order to compute choice probabilities. In this thesis we show that it is possible to explore the network structure and the flexibility of dynamic programming so that the dynamic discrete choice modeling approach is not only useful to model time dependent choices, but also makes it easier to model large-scale static choices. The thesis consists of seven articles containing a number of models and methods for estimating, applying and testing large-scale discrete choice models. In the following we group the contributions under three themes: route choice modeling, large-scale multivariate extreme value (MEV) model estimation and nonlinear optimization algorithms. Five articles are related to route choice modeling. We propose different dynamic discrete choice models that allow paths to be correlated based on the MEV and mixed logit models. The resulting route choice models become expensive to estimate and we deal with this challenge by proposing innovative methods that allow to reduce the estimation cost. For example, we propose a decomposition method that not only opens up for possibility of mixing, but also speeds up the estimation for simple logit models, which has implications also for traffic simulation. Moreover, we compare the utility maximization and regret minimization decision rules, and we propose a misspecification test for logit-based route choice models. The second theme is related to the estimation of static discrete choice models with large choice sets. We establish that a class of MEV models can be reformulated as dynamic discrete choice models on the networks of correlation structures. These dynamic models can then be estimated quickly using dynamic programming techniques and an efficient nonlinear optimization algorithm. Finally, the third theme focuses on structured quasi-Newton techniques for estimating discrete choice models by maximum likelihood. We examine and adapt switching methods that can be easily integrated into usual optimization algorithms (line search and trust region) to accelerate the estimation process. The proposed dynamic discrete choice models and estimation methods can be used in various discrete choice applications. In the area of big data analytics, models that can deal with large choice sets and sequential choices are important. Our research can therefore be of interest in various demand analysis applications (predictive analytics) or can be integrated with optimization models (prescriptive analytics). Furthermore, our studies indicate the potential of dynamic programming techniques in this context, even for static models, which opens up a variety of future research directions.
Resumo:
RNA is an underutilized target for drug discovery. Once thought to be a passive carrier of genetic information, RNA is now known to play a critical role in essentially all aspects of biology including signaling, gene regulation, catalysis, and retroviral infection. It is now well-established that RNA does not exist as a single static structure, but instead populates an ensemble of energetic minima along a free-energy landscape. Knowledge of this structural landscape has become an important goal for understanding its diverse biological functions. In this case, NMR spectroscopy has emerged as an important player in the characterization of RNA structural ensembles, with solution-state techniques accounting for almost half of deposited RNA structures in the PDB, yet the rate of RNA structure publication has been stagnant over the past decade. Several bottlenecks limit the pace of RNA structure determination by NMR: the high cost of isotopic labeling, tedious and ambiguous resonance assignment methods, and a limited database of RNA optimized pulse programs. We have addressed some of these challenges to NMR characterization of RNA structure with applications to various RNA-drug targets. These approaches will increasingly become integral to designing new therapeutics targeting RNA.
Resumo:
La spectrométrie de masse mesure la masse des ions selon leur rapport masse sur charge. Cette technique est employée dans plusieurs domaines et peut analyser des mélanges complexes. L’imagerie par spectrométrie de masse (Imaging Mass Spectrometry en anglais, IMS), une branche de la spectrométrie de masse, permet l’analyse des ions sur une surface, tout en conservant l’organisation spatiale des ions détectés. Jusqu’à présent, les échantillons les plus étudiés en IMS sont des sections tissulaires végétales ou animales. Parmi les molécules couramment analysées par l’IMS, les lipides ont suscité beaucoup d'intérêt. Les lipides sont impliqués dans les maladies et le fonctionnement normal des cellules; ils forment la membrane cellulaire et ont plusieurs rôles, comme celui de réguler des événements cellulaires. Considérant l’implication des lipides dans la biologie et la capacité du MALDI IMS à les analyser, nous avons développé des stratégies analytiques pour la manipulation des échantillons et l’analyse de larges ensembles de données lipidiques. La dégradation des lipides est très importante dans l’industrie alimentaire. De la même façon, les lipides des sections tissulaires risquent de se dégrader. Leurs produits de dégradation peuvent donc introduire des artefacts dans l’analyse IMS ainsi que la perte d’espèces lipidiques pouvant nuire à la précision des mesures d’abondance. Puisque les lipides oxydés sont aussi des médiateurs importants dans le développement de plusieurs maladies, leur réelle préservation devient donc critique. Dans les études multi-institutionnelles où les échantillons sont souvent transportés d’un emplacement à l’autre, des protocoles adaptés et validés, et des mesures de dégradation sont nécessaires. Nos principaux résultats sont les suivants : un accroissement en fonction du temps des phospholipides oxydés et des lysophospholipides dans des conditions ambiantes, une diminution de la présence des lipides ayant des acides gras insaturés et un effet inhibitoire sur ses phénomènes de la conservation des sections au froid sous N2. A température et atmosphère ambiantes, les phospholipides sont oxydés sur une échelle de temps typique d’une préparation IMS normale (~30 minutes). Les phospholipides sont aussi décomposés en lysophospholipides sur une échelle de temps de plusieurs jours. La validation d’une méthode de manipulation d’échantillon est d’autant plus importante lorsqu’il s’agit d’analyser un plus grand nombre d’échantillons. L’athérosclérose est une maladie cardiovasculaire induite par l’accumulation de matériel cellulaire sur la paroi artérielle. Puisque l’athérosclérose est un phénomène en trois dimension (3D), l'IMS 3D en série devient donc utile, d'une part, car elle a la capacité à localiser les molécules sur la longueur totale d’une plaque athéromateuse et, d'autre part, car elle peut identifier des mécanismes moléculaires du développement ou de la rupture des plaques. l'IMS 3D en série fait face à certains défis spécifiques, dont beaucoup se rapportent simplement à la reconstruction en 3D et à l’interprétation de la reconstruction moléculaire en temps réel. En tenant compte de ces objectifs et en utilisant l’IMS des lipides pour l’étude des plaques d’athérosclérose d’une carotide humaine et d’un modèle murin d’athérosclérose, nous avons élaboré des méthodes «open-source» pour la reconstruction des données de l’IMS en 3D. Notre méthodologie fournit un moyen d’obtenir des visualisations de haute qualité et démontre une stratégie pour l’interprétation rapide des données de l’IMS 3D par la segmentation multivariée. L’analyse d’aortes d’un modèle murin a été le point de départ pour le développement des méthodes car ce sont des échantillons mieux contrôlés. En corrélant les données acquises en mode d’ionisation positive et négative, l’IMS en 3D a permis de démontrer une accumulation des phospholipides dans les sinus aortiques. De plus, l’IMS par AgLDI a mis en évidence une localisation différentielle des acides gras libres, du cholestérol, des esters du cholestérol et des triglycérides. La segmentation multivariée des signaux lipidiques suite à l’analyse par IMS d’une carotide humaine démontre une histologie moléculaire corrélée avec le degré de sténose de l’artère. Ces recherches aident à mieux comprendre la complexité biologique de l’athérosclérose et peuvent possiblement prédire le développement de certains cas cliniques. La métastase au foie du cancer colorectal (Colorectal cancer liver metastasis en anglais, CRCLM) est la maladie métastatique du cancer colorectal primaire, un des cancers le plus fréquent au monde. L’évaluation et le pronostic des tumeurs CRCLM sont effectués avec l’histopathologie avec une marge d’erreur. Nous avons utilisé l’IMS des lipides pour identifier les compartiments histologiques du CRCLM et extraire leurs signatures lipidiques. En exploitant ces signatures moléculaires, nous avons pu déterminer un score histopathologique quantitatif et objectif et qui corrèle avec le pronostic. De plus, par la dissection des signatures lipidiques, nous avons identifié des espèces lipidiques individuelles qui sont discriminants des différentes histologies du CRCLM et qui peuvent potentiellement être utilisées comme des biomarqueurs pour la détermination de la réponse à la thérapie. Plus spécifiquement, nous avons trouvé une série de plasmalogènes et sphingolipides qui permettent de distinguer deux différents types de nécrose (infarct-like necrosis et usual necrosis en anglais, ILN et UN, respectivement). L’ILN est associé avec la réponse aux traitements chimiothérapiques, alors que l’UN est associé au fonctionnement normal de la tumeur.