998 resultados para Spectromètres par transformée de Fourier -- Méthodes de simulation


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’arrivée du spectromètre imageur à transformée de Fourier SITELLE au télescope Canada-France-Hawaï souligne la nécessité d’un calculateur de temps d’exposition permettant aux utilisateurs de l’instrument de planifier leurs observations et leurs demandes de temps de télescope. Une grande partie de mon projet est ainsi le développement d’un code de simulation capable de reproduire les résultats de SITELLE et de son prédecesseur SpIOMM, installé à l’Observatoire du Mont-Mégantic. La précision des simulations est confirmée par une comparaison avec des données SpIOMM et les premières observations de SITELLE. La seconde partie de mon projet consiste en une analyse spectrale de données observationelles. Prenant avantage du grand champ de vue de SpIOMM, les caractéristiques du gaz ionisé (vitesse radiale et intensité) sont étudiées pour l’ensemble de la paire de galaxies en interaction Arp 72. La courbe de rotation dans le visible ainsi que le gradient de métallicité de NGC 5996, la galaxie principale d’Arp 72, sont obtenues ici pour la première fois. La galaxie spirale NGC 7320 est également étudiée à partir d’observations faites à la fois avec SpIOMM et SITELLE.

Relevância:

100.00% 100.00%

Publicador:

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The aim of this work is to study the thermal behavior of geopolymers derived from kaolinite (clay). The geopolymers were characterized by various technics: Thermal analysis (DTA, TGA and dilatometer), X-ray diffractography (XRD), scanning electron microscopy (SEM) and Fourier transform infrared spectroscopy (FTIR). Certain physical properties of the products were equally determined: linear shrinkage of curing, percentage of water absorption and compressive strength. The results obtained after drying and thermal treatment showed that the products preserved their initial forms, but showed variable colours based on the temperatures they were treated at. The products obtained at 90, 300 and 500 °C contained hydroxysodalite. The synthesis of geopolymers is not complete at 300 °C (presence of kaolinite in the material) but the products obtained are quite consolidated. The geopolymers obtained have weak values of linear shrinkage of curing (less than 0.6 %) and the compressive strength increases from room temperature (4.9 Mpa) up to 400 °C (8.9 MPa) then becomes constant between 400 and 500 °C. The combination of results demonstrates the efficiency of the temperature parameter during the synthesis of geopolymers based on kaolinite. // L’objet de ce travail est l’étude du comportement thermique des géopolymères à base d’une argile kaolinite. Les produits obtenus ont été caractérisés au moyen de plusieurs techniques : analyses thermiques (ATD, ATG et dilatométrie), microscopie électronique à balayage (MEB), analyse par diffraction de rayons X (DRX), analyse infrarouge par transformée de Fourier (IRTF). Certaines propriétés physiques des produits obtenus ont également été déterminées : retrait linéaire de cuisson, pourcentage d’absorption d’eau et résistance à la compression. Les résultats obtenus montrent qu’après le séchage et à la fin du traitement thermique, les éprouvettes des produits conservent leur forme initiale mais présentent une variation de couleur en fonction de la température de traitement. Les produits obtenus à 90, 300 et 500 °C contiennent de l’hydroxysodalite. La réaction de synthèse géopolymère n’est pas encore terminée au moins à 300 °C (présence de kaolinite dans le matériau) mais les produits obtenus sont assez consolidés. Les géopolymères obtenus présentent de faibles valeurs de retrait linéaire de cuisson (inférieure à 0,6 %) et une résistance à la compression qui augmente de la température ambiante (4,9 MPa) jusqu’à 400 °C (8,9 MPa) puis devient constante entre 400 et 500 °C. L’ensemble de ces résultats permet de mettre en exergue l’efficacité du paramètre « température » au cours de la synthèse des géopolymères à base de kaolinite.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In the context of multivariate linear regression (MLR) models, it is well known that commonly employed asymptotic test criteria are seriously biased towards overrejection. In this paper, we propose a general method for constructing exact tests of possibly nonlinear hypotheses on the coefficients of MLR systems. For the case of uniform linear hypotheses, we present exact distributional invariance results concerning several standard test criteria. These include Wilks' likelihood ratio (LR) criterion as well as trace and maximum root criteria. The normality assumption is not necessary for most of the results to hold. Implications for inference are two-fold. First, invariance to nuisance parameters entails that the technique of Monte Carlo tests can be applied on all these statistics to obtain exact tests of uniform linear hypotheses. Second, the invariance property of the latter statistic is exploited to derive general nuisance-parameter-free bounds on the distribution of the LR statistic for arbitrary hypotheses. Even though it may be difficult to compute these bounds analytically, they can easily be simulated, hence yielding exact bounds Monte Carlo tests. Illustrative simulation experiments show that the bounds are sufficiently tight to provide conclusive results with a high probability. Our findings illustrate the value of the bounds as a tool to be used in conjunction with more traditional simulation-based test methods (e.g., the parametric bootstrap) which may be applied when the bounds are not conclusive.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper we propose exact likelihood-based mean-variance efficiency tests of the market portfolio in the context of Capital Asset Pricing Model (CAPM), allowing for a wide class of error distributions which include normality as a special case. These tests are developed in the frame-work of multivariate linear regressions (MLR). It is well known however that despite their simple statistical structure, standard asymptotically justified MLR-based tests are unreliable. In financial econometrics, exact tests have been proposed for a few specific hypotheses [Jobson and Korkie (Journal of Financial Economics, 1982), MacKinlay (Journal of Financial Economics, 1987), Gib-bons, Ross and Shanken (Econometrica, 1989), Zhou (Journal of Finance 1993)], most of which depend on normality. For the gaussian model, our tests correspond to Gibbons, Ross and Shanken’s mean-variance efficiency tests. In non-gaussian contexts, we reconsider mean-variance efficiency tests allowing for multivariate Student-t and gaussian mixture errors. Our framework allows to cast more evidence on whether the normality assumption is too restrictive when testing the CAPM. We also propose exact multivariate diagnostic checks (including tests for multivariate GARCH and mul-tivariate generalization of the well known variance ratio tests) and goodness of fit tests as well as a set estimate for the intervening nuisance parameters. Our results [over five-year subperiods] show the following: (i) multivariate normality is rejected in most subperiods, (ii) residual checks reveal no significant departures from the multivariate i.i.d. assumption, and (iii) mean-variance efficiency tests of the market portfolio is not rejected as frequently once it is allowed for the possibility of non-normal errors.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans le domaine de l'analyse et la détection de produits pharmaceutiques contrefaits, différentes techniques analytiques ont été appliquées afin de discriminer les produits authentiques des contrefaçons. Parmi celles-ci, les spectroscopies proche infrarouge (NIR) et Raman ont fourni des résultats prometteurs. L'objectif de cette étude était de développer une méthodologie, basée sur l'établissement de liens chimiques entre les saisies de produits contrefaits, permettant de fournir des informations utiles pour les acteurs impliqués dans la lutte à la prolifération de ces produits. Une banque de données de spectres NIR et Raman a été créée et différents algorithmes de classification non-supervisée (i.e., analyse en composantes principales (ACP) et analyse factorielle discriminante (AFD) - elus ter onolysis) ont été utilisées afin d'identifier les différents groupes de produits présents. Ces classes ont été comparées aux profils chimiques mis en évidence par la spectroscopie infrarouge à transformée de Fourier (FT-IR) et par la chromatographie gazeuse couplée à la spectrométrie de masse (GC -MS). La stratégie de classification proposée, fondée sur les classes identifiées par spectroscopie NIR et Raman, utilise un algorithme de classification basé sur des mesures de distance et des courbes Receiver Operating Characteristics (ROC). Le modèle est capable de comparer le spectre d'une nouvelle contrefaçon à ceux des saisies précédemment analysées afin de déterminer si le nouveau spécimen appartient à l'une des classes existantes, permettant ainsi de le lier à d'autres saisies dans la base de données.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

On the efficiency of recursive evaluations with applications to risk theoryCette thèse est composée de trois essais qui portent sur l'efficacité des évaluations récursives de la distribution du montant total des sinistres d'un portefeuille de polices d'assurance au cours d'un période donnée. Le calcul de sa fonction de probabilité ou de quantités liées à cette distribution apparaît fréquemment dans la plupart des domaines de la pratique actuarielle.C'est le cas notamment pour le calcul du capital de solvabilité en Suisse ou pour modéliser la perte d'une assurance vie au cours d'une année. Le principal problème des évaluations récursives est que la propagation des erreurs provenant de la représentation des nombres réels par l'ordinateur peut être désastreuse. Mais, le gain de temps qu'elles procurent en réduisant le nombre d'opérations arithmétiques est substantiel par rapport à d'autres méthodes.Dans le premier essai, nous utilisons certaines propriétés d'un outil informatique performant afin d'optimiser le temps de calcul tout en garantissant une certaine qualité dans les résultats par rapport à la propagation de ces erreurs au cours de l'évaluation.Dans le second essai, nous dérivons des expressions exactes et des bornes pour les erreurs qui se produisent dans les fonctions de distribution cumulatives d'un ordre donné lorsque celles-ci sont évaluées récursivement à partir d'une approximation de la transformée de De Pril associée. Ces fonctions cumulatives permettent de calculer directement certaines quantités essentielles comme les primes stop-loss.Finalement, dans le troisième essai, nous étudions la stabilité des évaluations récursives de ces fonctions cumulatives par rapport à la propagation des erreurs citées ci-dessus et déterminons la précision nécessaire dans la représentation des nombres réels afin de garantir des résultats satisfaisants. Cette précision dépend en grande partie de la transformée de De Pril associée.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'aquifère du Seeland représente une richesse en ressources hydriques qu'il est impératif de préserver contre tout risque de détérioration. Cet aquifère prolifique est constitué principalement de sédiments alluviaux post-glaciaires (graviers, sables et limons). Il est soumis aux contraintes environnementales des pratiques d'agriculture intensive, du réseau routier, des villes et de leurs activités industrielles. La connaissance optimale de ces ressources est donc primordiale pour leur protection. Dans cette optique, deux sites Kappelen et Grenchen représentatifs de l'aquifère du Seeland ont été étudiés. L'objectif de ce travail est de caractériser d'un point de vue hydrogéophysique l'aquifère au niveau de ces deux sites, c'est-à-dire, comprendre la dynamique des écoulements souterrains par l'application des méthodes électriques de surface associées aux diagraphies en intégrant des méthodes hydrogéologiques. Pour le site de Kappelen, les méthodes électriques de surface ont permis d'identifier les différents faciès géoélectriques en présence et de mettre en évidence leur disposition en une structure tabulaire et horizontale. Il s'agit d'un aquifère libre constitué d'une série de graviers allant jusqu'à 15 m de profondeur reposant sur de la moraine argileuse. Les diagraphies électriques, nucléaires et du fluide ont servis à la détermination des caractéristiques pétrophysiques et hydrauliques de l'aquifère qui contrôlent son comportement hydrodynamique. Les graviers aquifères de Kappelen présentent deux minéraux dominants: quartz et calcite. Les analyses minéralogiques indiquent que ces deux éléments constituent 65 à 75% de la matrice. La porosité totale obtenue par les diagraphies nucléaires varie de 20 à 30 %, et de 22 à 29 % par diagraphies électrique. Avec les faibles valeurs de Gamma Ray ces résultats indiquent que l'aquifère des graviers de Kappelen est dépourvu d'argile minéralogique. La perméabilité obtenue par diagraphies du fluide varie de 3.10-4 à 5.10-2 m/s, et par essais de pompage de 10-4 à 10-2 m/s. Les résultats des analyses granulométriques indiquent une hétérogénéité granulométrique au niveau des graviers aquifères. La fraction de sables, sables très fins, silts et limons constitue de 10 à 40 %. Ces éléments jouent un rôle important dans le comportement hydraulique de l'aquifère. La porosité efficace de 11 à 25% estimée à partir des résultats des analyses granulométriques suppose que les zones les plus perméables correspondent aux zones les plus graveleuses du site. Etablie sur le site de Kappelen, cette méthodologie a été utilisée sur le site de Grenchen. Les méthodes électriques de surface indiquent que l'aquifère captif de Grenchen est constitué des sables silteux comprenant des passages sableux, encadrés par des silts argileux imperméables. L'aquifère de Grenchen est disposé dans une structure relativement tabulaire et horizontale. Son épaisseur totale peut atteindre les 25 m vers le sud et le sud ouest ou les passages sableux sont les plus importants. La détermination des caractéristiques pétrophysiques et hydrauliques s'est faite à l'aide des diagraphies. Les intensités Gamma Ray varient de 30 à 100 cps, les plus fortes valeurs n'indiquent qu'une présence d'éléments argileux mais pas de bancs d'argile. Les porosités totales de 15 à 25% et les densités globales de 2.25 à 2.45 g/cm3 indiquent que la phase minérale (matrice) est composée essentiellement de quartz et de calcaire. Les densités de matrice varient entre 2.65 et 2.75 g/cm3. La perméabilité varie de 2 10-6 à 5 10-4 m/s. La surestimation des porosités totales à partir des diagraphies électriques de 25 à 42% est due à la présence d'argiles. -- The vast alluvial Seeland aquifer system in northwestern Switzerland is subjected to environmental challenges due to intensive agriculture, roads, cities and industrial activities. Optimal knowledge of the hydrological resources of this aquifer system is therefore important for their protection. Two representative sites, Kappelen and Grenchen, of the Seeland aquifer were investigated using surface-based geoelectric methods and geophysical borehole logging methods. By integrating of hydrogeological and hydrogeophysical methods, a reliable characterization of the aquifer system at these two sites can be performed in order to better understand the governing flow and transport process. At the Kappelen site, surface-based geoelectric methods allowed to identify various geoelectric facies and highlighted their tabular and horizontal structure. It is an unconfined aquifer made up of 15 m thick gravels with an important sandy fraction and bounded by a shaly glacial aquitard. Electrical and nuclear logging measurements allow for constraining the petrophysical and hydrological parameters of saturated gravels. Results indicate that in agreement with mineralogical analyses, matrix of the probed formations is dominated by quartz and calcite with densities of 2.65 and 2.71 g/cc, respectively. These two minerals constitute approximately 65 to 75 % of the mineral matrix. Matrix density values vary from 2.60 to 2.75 g/cc. Total porosity values obtained from nuclear logs range from 20 to 30 % and are consistent with those obtained from electrical logs ranging from 22 to 29 %. Together with the inherently low natural gamma radiation and the matrix density values obtained from other nuclear logging measurements, this indicates that at Kappelen site the aquifer is essentially devoid of clay. Hydraulic conductivity values obtained by the Dilution Technique vary between 3.10-4 and 5.10-2 m/s, while pumping tests give values ranging from 10-4 to 10-2 m/s. Grain size analysis of gravel samples collected from boreholes cores reveal significant granulometric heterogeneity of these deposits. Calculations based on these granulometric data have shown that the sand-, silt- and shale-sized fractions constitute between 10 and 40 % of the sample mass. The presence of these fine elements in general and their spatial distribution in particular are important as they largely control the distribution of the total and effective porosity as well as the hydraulic conductivity. Effective porosity values ranging from 11 to 25% estimated from grain size analyses indicate that the zones of higher hydraulic conductivity values correspond to the zones dominated by gravels. The methodology established at the Kappelen site was then applied to the Grenchen site. Results from surface-based geoelectric measurements indicate that it is a confined aquifer made up predominantly of shaly sands with intercalated sand lenses confined impermeable shally clay. The Grenchen confined aquifer has a relatively tabular and horizontal structure with a maximum thickness of 25 m in the south and the southwest with important sand passages. Petrophysical and hydrological characteristics were performed using electrical and nuclear logging. Natural gamma radiation values ranging from 30 to 100 cps indicate presence of a clay fraction but not of pure clay layers. Total porosity values obtained from electrical logs vary form 25 to 42%, whereas those obtained from nuclear logs values vary from 15 to 25%. This over-estimation confirms presences of clays. Density values obtained from nuclear logs varying from 2.25 to 2.45 g/cc in conjunction with the total porosity values indicate that the dominating matrix minerals are quartz and calcite. Matrix density values vary between 2.65 and 2.75 g/cc. Hydraulic conductivity values obtained by the Dilution Technique vary from 2 10-6 to 5 10-4 m/s.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

«Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal ou lors d'investigations, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Toutefois, aucune réponse ne peut actuellement être donnée à cette question, puisqu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. Néanmoins, l'inventaire de cas américains conduit dans cette recherche a montré que les experts fournissent tout de même des témoignages au tribunal concernant l'âge de traces digitales, même si ceux-­‐ci sont majoritairement basés sur des paramètres subjectifs et mal documentés. Il a été relativement aisé d'accéder à des cas américains détaillés, ce qui explique le choix de l'exemple. Toutefois, la problématique de la datation des traces digitales est rencontrée dans le monde entier, et le manque de consensus actuel dans les réponses données souligne la nécessité d'effectuer des études sur le sujet. Le but de la présente recherche est donc d'évaluer la possibilité de développer une méthode de datation objective des traces digitales. Comme les questions entourant la mise au point d'une telle procédure ne sont pas nouvelles, différentes tentatives ont déjà été décrites dans la littérature. Cette recherche les a étudiées de manière critique, et souligne que la plupart des méthodologies reportées souffrent de limitations prévenant leur utilisation pratique. Néanmoins, certaines approches basées sur l'évolution dans le temps de composés intrinsèques aux résidus papillaires se sont montrées prometteuses. Ainsi, un recensement détaillé de la littérature a été conduit afin d'identifier les composés présents dans les traces digitales et les techniques analytiques capables de les détecter. Le choix a été fait de se concentrer sur les composés sébacés détectés par chromatographie gazeuse couplée à la spectrométrie de masse (GC/MS) ou par spectroscopie infrarouge à transformée de Fourier. Des analyses GC/MS ont été menées afin de caractériser la variabilité initiale de lipides cibles au sein des traces digitales d'un même donneur (intra-­‐variabilité) et entre les traces digitales de donneurs différents (inter-­‐variabilité). Ainsi, plusieurs molécules ont été identifiées et quantifiées pour la première fois dans les résidus papillaires. De plus, il a été déterminé que l'intra-­‐variabilité des résidus était significativement plus basse que l'inter-­‐variabilité, mais que ces deux types de variabilité pouvaient être réduits en utilisant différents pré-­‐ traitements statistiques s'inspirant du domaine du profilage de produits stupéfiants. Il a également été possible de proposer un modèle objectif de classification des donneurs permettant de les regrouper dans deux classes principales en se basant sur la composition initiale de leurs traces digitales. Ces classes correspondent à ce qui est actuellement appelé de manière relativement subjective des « bons » ou « mauvais » donneurs. Le potentiel d'un tel modèle est élevé dans le domaine de la recherche en traces digitales, puisqu'il permet de sélectionner des donneurs représentatifs selon les composés d'intérêt. En utilisant la GC/MS et la FTIR, une étude détaillée a été conduite sur les effets de différents facteurs d'influence sur la composition initiale et le vieillissement de molécules lipidiques au sein des traces digitales. Il a ainsi été déterminé que des modèles univariés et multivariés pouvaient être construits pour décrire le vieillissement des composés cibles (transformés en paramètres de vieillissement par pré-­‐traitement), mais que certains facteurs d'influence affectaient ces modèles plus sérieusement que d'autres. En effet, le donneur, le substrat et l'application de techniques de révélation semblent empêcher la construction de modèles reproductibles. Les autres facteurs testés (moment de déposition, pression, température et illumination) influencent également les résidus et leur vieillissement, mais des modèles combinant différentes valeurs de ces facteurs ont tout de même prouvé leur robustesse dans des situations bien définies. De plus, des traces digitales-­‐tests ont été analysées par GC/MS afin d'être datées en utilisant certains des modèles construits. Il s'est avéré que des estimations correctes étaient obtenues pour plus de 60 % des traces-­‐tests datées, et jusqu'à 100% lorsque les conditions de stockage étaient connues. Ces résultats sont intéressants mais il est impératif de conduire des recherches supplémentaires afin d'évaluer les possibilités d'application de ces modèles dans des cas réels. Dans une perspective plus fondamentale, une étude pilote a également été effectuée sur l'utilisation de la spectroscopie infrarouge combinée à l'imagerie chimique (FTIR-­‐CI) afin d'obtenir des informations quant à la composition et au vieillissement des traces digitales. Plus précisément, la capacité de cette technique à mettre en évidence le vieillissement et l'effet de certains facteurs d'influence sur de larges zones de traces digitales a été investiguée. Cette information a ensuite été comparée avec celle obtenue par les spectres FTIR simples. Il en a ainsi résulté que la FTIR-­‐CI était un outil puissant, mais que son utilisation dans l'étude des résidus papillaires à des buts forensiques avait des limites. En effet, dans cette recherche, cette technique n'a pas permis d'obtenir des informations supplémentaires par rapport aux spectres FTIR traditionnels et a également montré des désavantages majeurs, à savoir de longs temps d'analyse et de traitement, particulièrement lorsque de larges zones de traces digitales doivent être couvertes. Finalement, les résultats obtenus dans ce travail ont permis la proposition et discussion d'une approche pragmatique afin d'aborder les questions de datation des traces digitales. Cette approche permet ainsi d'identifier quel type d'information le scientifique serait capable d'apporter aux enquêteurs et/ou au tribunal à l'heure actuelle. De plus, le canevas proposé décrit également les différentes étapes itératives de développement qui devraient être suivies par la recherche afin de parvenir à la validation d'une méthodologie de datation des traces digitales objective, dont les capacités et limites sont connues et documentées. -- "How old is this fingermark?" This question is relatively often raised in trials when suspects admit that they have left their fingermarks on a crime scene but allege that the contact occurred at a time different to that of the crime and for legitimate reasons. However, no answer can be given to this question so far, because no fingermark dating methodology has been validated and accepted by the whole forensic community. Nevertheless, the review of past American cases highlighted that experts actually gave/give testimonies in courts about the age of fingermarks, even if mostly based on subjective and badly documented parameters. It was relatively easy to access fully described American cases, thus explaining the origin of the given examples. However, fingermark dating issues are encountered worldwide, and the lack of consensus among the given answers highlights the necessity to conduct research on the subject. The present work thus aims at studying the possibility to develop an objective fingermark dating method. As the questions surrounding the development of dating procedures are not new, different attempts were already described in the literature. This research proposes a critical review of these attempts and highlights that most of the reported methodologies still suffer from limitations preventing their use in actual practice. Nevertheless, some approaches based on the evolution of intrinsic compounds detected in fingermark residue over time appear to be promising. Thus, an exhaustive review of the literature was conducted in order to identify the compounds available in the fingermark residue and the analytical techniques capable of analysing them. It was chosen to concentrate on sebaceous compounds analysed using gas chromatography coupled with mass spectrometry (GC/MS) or Fourier transform infrared spectroscopy (FTIR). GC/MS analyses were conducted in order to characterize the initial variability of target lipids among fresh fingermarks of the same donor (intra-­‐variability) and between fingermarks of different donors (inter-­‐variability). As a result, many molecules were identified and quantified for the first time in fingermark residue. Furthermore, it was determined that the intra-­‐variability of the fingermark residue was significantly lower than the inter-­‐variability, but that it was possible to reduce both kind of variability using different statistical pre-­‐ treatments inspired from the drug profiling area. It was also possible to propose an objective donor classification model allowing the grouping of donors in two main classes based on their initial lipid composition. These classes correspond to what is relatively subjectively called "good" or "bad" donors. The potential of such a model is high for the fingermark research field, as it allows the selection of representative donors based on compounds of interest. Using GC/MS and FTIR, an in-­‐depth study of the effects of different influence factors on the initial composition and aging of target lipid molecules found in fingermark residue was conducted. It was determined that univariate and multivariate models could be build to describe the aging of target compounds (transformed in aging parameters through pre-­‐ processing techniques), but that some influence factors were affecting these models more than others. In fact, the donor, the substrate and the application of enhancement techniques seemed to hinder the construction of reproducible models. The other tested factors (deposition moment, pressure, temperature and illumination) also affected the residue and their aging, but models combining different values of these factors still proved to be robust. Furthermore, test-­‐fingermarks were analysed with GC/MS in order to be dated using some of the generated models. It turned out that correct estimations were obtained for 60% of the dated test-­‐fingermarks and until 100% when the storage conditions were known. These results are interesting but further research should be conducted to evaluate if these models could be used in uncontrolled casework conditions. In a more fundamental perspective, a pilot study was also conducted on the use of infrared spectroscopy combined with chemical imaging in order to gain information about the fingermark composition and aging. More precisely, its ability to highlight influence factors and aging effects over large areas of fingermarks was investigated. This information was then compared with that given by individual FTIR spectra. It was concluded that while FTIR-­‐ CI is a powerful tool, its use to study natural fingermark residue for forensic purposes has to be carefully considered. In fact, in this study, this technique does not yield more information on residue distribution than traditional FTIR spectra and also suffers from major drawbacks, such as long analysis and processing time, particularly when large fingermark areas need to be covered. Finally, the results obtained in this research allowed the proposition and discussion of a formal and pragmatic framework to approach the fingermark dating questions. It allows identifying which type of information the scientist would be able to bring so far to investigators and/or Justice. Furthermore, this proposed framework also describes the different iterative development steps that the research should follow in order to achieve the validation of an objective fingermark dating methodology, whose capacities and limits are well known and properly documented.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le mélanome cutané est un des cancers les plus agressifs et dont l'incidence augmente le plus en Suisse. Une fois métastatique, le pronostic de survie moyenne avec les thérapies actuelles est d'environ huit mois, avec moins de 5% de survie à cinq ans. Les récents progrès effectués dans la compréhension de la biologie de la cellule tumorale mais surtout dans l'importance du système immunitaire dans le contrôle de ce cancer ont permis le développement de nouveaux traitements novateurs et prometteurs. Ces thérapies, appelées immunothérapies, reposent sur la stimulation et l'augmentation de la réponse immunitaire à la tumeur. Alors que les derniers essais cliniques ont démontré l'efficacité de ces traitements chez les patients avec des stades avancés de la maladie, le contrôle de la maladie à long- terme est seulement atteint chez une minorité des patients. La suppression locale et systémique de la réponse immunitaire spécifique anti-tumorale apparaitrait comme une des raisons expliquant la persistance d'un mauvais pronostic clinique chez ces patients. Des études sur les souris ont montré que les vaisseaux lymphatiques joueraient un rôle primordial dans ce processus en induisant une tolérance immune, ce qui permettrait à la tumeur d'échapper au contrôle du système immunitaire et métastatiser plus facilement. Ces excitantes découvertes n'ont pas encore été établi et prouvé chez l'homme. Dans cette thèse, nous montrons pour la première fois que les vaisseaux lymphatiques sont directement impliqués dans la modulation de la réponse immunitaire au niveau local et systémique dans le mélanome chez l'homme. Ces récentes découvertes montrent le potentiel de combiner des thérapies visant le système lymphatique avec les immunothérapies actuellement utilisées afin d'améliorer le pronostic des patients atteint du mélanome. -- Cutaneous melanoma is one of the most invasive and metastatic human cancers and causes 75% of skin cancer mortality. Current therapies such as surgery and chemotherapy fail to control metastatic disease, and relapse occurs frequently due to microscopic residual lesions. It is, thus, essential to develop and optimize novel therapeutic strategies to improve curative responses in these patients. In recent decades, tumor immunologists have revealed the development of spontaneous adaptive immune responses in melanoma patients, leading to the accumulation of highly differentiated tumor-specific T cells at the tumor site. This remains one of the most powerful prognostic markers to date. Immunotherapies that augment the natural function of these tumor-specific T cells have since emerged as highly attractive therapeutic approaches to eliminate melanoma cells. While recent clinical trials have demonstrated great progress in the treatment of advanced stage melanoma, long-term disease control is still only achieved in a minority of patients. Local and systemic immune suppression by the tumor appears to be responsible, in part, for this poor clinical evolution. These facts underscore the need for a better analysis and characterization of immune- related pathways within the tumor microenvironment (TME), as well as at the systemic level. The overall goal of this thesis is, thus, to obtain greater insight into the complexity and heterogeneity of the TME in human melanoma, as well as to investigate immune modulation beyond the TME, which ultimately influences the immune system throughout the whole body. To achieve this, we established two main objectives: to precisely characterize local and systemic immune modulation (i) in untreated melanoma patients and (ii) in patients undergoing peptide vaccination or checkpoint blockade therapy with anti-cytotoxic T- lymphocyte-asisctaed protein-4 (CTLA-4) antibody. In the first and main part of this thesis, we analyzed lymphatic vessels in relation to anti-tumor immune responses in tissues from vaccinated patients using a combination of immunohistochemistry (IHC) techniques, whole slide scanning/analysis, and an automatic quantification system. Strikingly, we found that increased lymphatic vessel density was associated with high expression of immune suppressive molecules, low functionality of tumor-infiltrating CD8+ T cells and decreased cytokine production by tumor-antigen specific CD8+ T cells in the blood. These data revealed a previously unappreciated local and systemic role of lymphangiogenesis in modulating T cell responses in human cancer and support the use of therapies that target lymphatic vessels combined with existing and future T cell based therapies. In the second objective, we describe a metastatic melanoma patient who developed pulmonary sarcoid-like granulomatosis following repetitive vaccination with peptides and CpG. We demonstrated that the onset of this pulmonary autoimmune adverse event was related to the development of a strong and long-lasting tumor-specific CD8+ T cell response. This constitutes the first demonstration that a new generation tumor vaccine can induce the development of autoimmune adverse events. In the third objective, we assessed the use of Fourier Transform Infrared (FTIR) imaging to identify melanoma cells and lymphocyte subpopulations in lymph node (LN) metastasis tissues, thanks to a fruitful collaboration with researchers in Brussels. We demonstrated that the different cell types in metastatic LNs have different infrared spectral features allowing automated identification of these cells. This technic is therefore capable of distinguishing known and novel biological features in human tissues and has, therefore, significant potential as a tool for histopathological diagnosis and biomarker assessment. Finally, in the fourth objective, we investigated the role of colony- stimulating factor-1 (CSF-1) in modulating the anti-tumor response in ipilimumab-treated patients using IHC and in vitro co-cultures, revealing that melanoma cells produce CSF-1 via CTL-derived cytokines when attacked by cytotoxic T lymphocytes (CTLs), resulting in the recruitment of immunosuppressive monocytes. These findings support the combined use of CSF-1R blockade with T cell based immunotherapy for melanoma patients. Taken together, our results reveal the existence of novel mechanisms of immune modulation and thus promote the optimization of combination immunotherapies against melanoma. -- Le mélanome cutané est un des cancers humains les plus invasifs et métastatiques et est responsable de 75% de la mortalité liée aux cancers de la peau. Les thérapies comme la chirurgie et la chimiothérapie ont échoué à contrôler le mélanome métastatique, par ailleurs les rechutes sous ces traitements ont été montrées fréquentes. Il est donc essentiel de développer et d'optimiser de nouvelles stratégies thérapeutiques pour améliorer les réponses thérapeutiques de ces patients. Durant les dernières décennies, les immunologistes spécialisés dans les tumeurs ont démontré qu'un patient atteint du mélanome pouvait développer spontanément une réponse immune adaptative à sa tumeur et que l'accumulation de cellules T spécifiques tumorales au sein même de la tumeur était un des plus puissants facteurs pronostiques. Les immunothérapies qui ont pour but d'augmenter les fonctions naturelles de ces cellules T spécifiques tumorales ont donc émergé comme des approches thérapeutiques très attractives pour éliminer les cellules du mélanome. Alors que les derniers essais cliniques ont démontré un progrès important dans le traitement des formes avancées du mélanome, le contrôle de la maladie à long-terme est seulement atteint chez une minorité des patients. La suppression immune locale et systémique apparaitrait comme une des raisons expliquant la persistance d'un mauvais pronostic clinique chez ces patients. Ces considérations soulignent la nécessité de mieux analyser et caractériser les voies immunitaires non seulement au niveau local dans le microenvironement tumoral mais aussi au niveau systémique dans le sang des patients. Le but de cette thèse est d'obtenir une plus grande connaissance de la complexité et de l'hétérogénéité du microenvironement tumoral dans les mélanomes mais aussi d'investiguer la modulation immunitaire au delà du microenvironement tumoral au niveau systémique. Afin d'atteindre ce but, nous avons établi deux objectifs principaux : caractériser précisément la modulation locale et systémique du système immunitaire (i) chez les patients atteints du mélanome qui n'ont pas reçu de traitement et (ii) chez les patients qui ont été traités soit par des vaccins soit par des thérapies qui bloquent les points de contrôles. Dans la première et majeure partie de cette thèse, nous avons analysé les vaisseaux lymphatiques en relation avec la réponse immunitaire anti-tumorale dans les tissus des patients vaccinés grâce à des techniques d'immunohistochimie et de quantification informatisé et automatique des marquages. Nous avons trouvé qu'une densité élevée de vaisseaux lymphatiques dans la tumeur était associée à une plus grande expression de molécules immunosuppressives ainsi qu'à une diminution de la fonctionnalité des cellules T spécifiques tumoral dans la tumeur et dans le sang des patients. Ces résultats révèlent un rôle jusqu'à là inconnu des vaisseaux lymphatiques dans la modulation directe du système immunitaire au niveau local et systémique dans les cancers de l'homme. Cette recherche apporte finalement des preuves du potentiel de combiner des thérapies visant le système lymphatique avec des autres immunothérapies déjà utilisées en clinique. Dans le second objectif, nous rapportons le cas d'un patient atteint d'un mélanome avec de multiples métastases qui a développé à la suite de plusieurs vaccinations répétées et consécutives avec des peptides et du CpG, un évènement indésirable sous la forme d'une granulomatose pulmonaire sarcoid-like. Nous avons démontré que l'apparition de cet évènement était intimement liée au développement d'une réponse immunitaire durable et spécifique contre les antigènes de la tumeur. Par là- même, nous prouvons pour la première fois que la nouvelle génération de vaccins est aussi capable d'induire des effets indésirables auto-immuns. Pour le troisième objectif, nous avons voulu savoir si l'utilisation de la spectroscopie infrarouge à transformée de Fourier (IRTF) était capable d'identifier les cellules du mélanome ainsi que les différents sous-types cellulaires dans les ganglions métastatiques. Grâce à nos collaborateurs de Bruxelles, nous avons pu établir que les diverses composantes cellulaires des ganglions atteints par des métastases du mélanome présentaient des spectres infrarouges différents et qu'elles pouvaient être identifiées d'une façon automatique. Cette nouvelle technique permettrait donc de distinguer des caractéristiques biologiques connues ou nouvelles dans les tissus humains qui auraient des retombées pratiques importantes dans le diagnostic histopathologique et dans l'évaluation des biomarqueurs. Finalement dans le dernier objectif, nous avons investigué le rôle du facteur de stimulation des colonies (CSF-1) dans la modulation de la réponse immunitaire anti-tumorale chez les patients qui ont été traités par l'Ipilimumab. Nos expériences in vivo au niveau des tissus tumoraux et nos co-cultures in vitro nous ont permis de démontrer que les cytokines secrétées par les cellules T spécifiques anti-tumorales induisaient la sécrétion de CSF-1 dans les cellules du mélanome ce qui résultait en un recrutement de monocytes immunosuppresseurs. Dans son ensemble, cette thèse révèle donc l'existence de nouveaux mécanismes de modulation de la réponse immunitaire anti-tumorale et propose de nouvelles optimisations de combinaison d'immunothérapies contre le mélanome.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper proposes finite-sample procedures for testing the SURE specification in multi-equation regression models, i.e. whether the disturbances in different equations are contemporaneously uncorrelated or not. We apply the technique of Monte Carlo (MC) tests [Dwass (1957), Barnard (1963)] to obtain exact tests based on standard LR and LM zero correlation tests. We also suggest a MC quasi-LR (QLR) test based on feasible generalized least squares (FGLS). We show that the latter statistics are pivotal under the null, which provides the justification for applying MC tests. Furthermore, we extend the exact independence test proposed by Harvey and Phillips (1982) to the multi-equation framework. Specifically, we introduce several induced tests based on a set of simultaneous Harvey/Phillips-type tests and suggest a simulation-based solution to the associated combination problem. The properties of the proposed tests are studied in a Monte Carlo experiment which shows that standard asymptotic tests exhibit important size distortions, while MC tests achieve complete size control and display good power. Moreover, MC-QLR tests performed best in terms of power, a result of interest from the point of view of simulation-based tests. The power of the MC induced tests improves appreciably in comparison to standard Bonferroni tests and, in certain cases, outperforms the likelihood-based MC tests. The tests are applied to data used by Fischer (1993) to analyze the macroeconomic determinants of growth.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In the literature on tests of normality, much concern has been expressed over the problems associated with residual-based procedures. Indeed, the specialized tables of critical points which are needed to perform the tests have been derived for the location-scale model; hence reliance on available significance points in the context of regression models may cause size distortions. We propose a general solution to the problem of controlling the size normality tests for the disturbances of standard linear regression, which is based on using the technique of Monte Carlo tests.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper, we propose several finite-sample specification tests for multivariate linear regressions (MLR) with applications to asset pricing models. We focus on departures from the assumption of i.i.d. errors assumption, at univariate and multivariate levels, with Gaussian and non-Gaussian (including Student t) errors. The univariate tests studied extend existing exact procedures by allowing for unspecified parameters in the error distributions (e.g., the degrees of freedom in the case of the Student t distribution). The multivariate tests are based on properly standardized multivariate residuals to ensure invariance to MLR coefficients and error covariances. We consider tests for serial correlation, tests for multivariate GARCH and sign-type tests against general dependencies and asymmetries. The procedures proposed provide exact versions of those applied in Shanken (1990) which consist in combining univariate specification tests. Specifically, we combine tests across equations using the MC test procedure to avoid Bonferroni-type bounds. Since non-Gaussian based tests are not pivotal, we apply the “maximized MC” (MMC) test method [Dufour (2002)], where the MC p-value for the tested hypothesis (which depends on nuisance parameters) is maximized (with respect to these nuisance parameters) to control the test’s significance level. The tests proposed are applied to an asset pricing model with observable risk-free rates, using monthly returns on New York Stock Exchange (NYSE) portfolios over five-year subperiods from 1926-1995. Our empirical results reveal the following. Whereas univariate exact tests indicate significant serial correlation, asymmetries and GARCH in some equations, such effects are much less prevalent once error cross-equation covariances are accounted for. In addition, significant departures from the i.i.d. hypothesis are less evident once we allow for non-Gaussian errors.