880 resultados para frequency limitation
Resumo:
On étudie l’application des algorithmes de décomposition matricielles tel que la Factorisation Matricielle Non-négative (FMN), aux représentations fréquentielles de signaux audio musicaux. Ces algorithmes, dirigés par une fonction d’erreur de reconstruction, apprennent un ensemble de fonctions de base et un ensemble de coef- ficients correspondants qui approximent le signal d’entrée. On compare l’utilisation de trois fonctions d’erreur de reconstruction quand la FMN est appliquée à des gammes monophoniques et harmonisées: moindre carré, divergence Kullback-Leibler, et une mesure de divergence dépendente de la phase, introduite récemment. Des nouvelles méthodes pour interpréter les décompositions résultantes sont présentées et sont comparées aux méthodes utilisées précédemment qui nécessitent des connaissances du domaine acoustique. Finalement, on analyse la capacité de généralisation des fonctions de bases apprises par rapport à trois paramètres musicaux: l’amplitude, la durée et le type d’instrument. Pour ce faire, on introduit deux algorithmes d’étiquetage des fonctions de bases qui performent mieux que l’approche précédente dans la majorité de nos tests, la tâche d’instrument avec audio monophonique étant la seule exception importante.
Resumo:
The attached file is created with Scientific Workplace Latex
Resumo:
Les analyses statistiques ont été réalisées avec le logiciels SPSS 11.0(Statistical Package for Social Sciences) et AMOS 6 (Analysis of Moment Structures. La base de données de l'étude a été crée et receuillie par Caroline Despatie en collaboration avec Dr. Dianne Casoni.
Resumo:
La spectroscopie Raman est un outil non destructif fort utile lors de la caractérisation de matériau. Cette technique consiste essentiellement à faire l’analyse de la diffusion inélastique de lumière par un matériau. Les performances d’un système de spectroscopie Raman proviennent en majeure partie de deux filtres ; l’un pour purifier la raie incidente (habituellement un laser) et l’autre pour atténuer la raie élastique du faisceau de signal. En spectroscopie Raman résonante (SRR), l’énergie (la longueur d’onde) d’excitation est accordée de façon à être voisine d’une transition électronique permise dans le matériau à l’étude. La section efficace d’un processus Raman peut alors être augmentée d’un facteur allant jusqu’à 106. La technologie actuelle est limitée au niveau des filtres accordables en longueur d’onde. La SRR est donc une technique complexe et pour l’instant fastidieuse à mettre en œuvre. Ce mémoire présente la conception et la construction d’un système de spectroscopie Raman accordable en longueur d’onde basé sur des filtres à réseaux de Bragg en volume. Ce système vise une utilisation dans le proche infrarouge afin d’étudier les résonances de nanotubes de carbone. Les étapes menant à la mise en fonction du système sont décrites. Elles couvrent les aspects de conceptualisation, de fabrication, de caractérisation ainsi que de l’optimisation du système. Ce projet fut réalisé en étroite collaboration avec une petite entreprise d’ici, Photon etc. De cette coopération sont nés les filtres accordables permettant avec facilité de changer la longueur d’onde d’excitation. Ces filtres ont été combinés à un laser titane : saphir accordable de 700 à 1100 nm, à un microscope «maison» ainsi qu’à un système de détection utilisant une caméra CCD et un spectromètre à réseau. Sont d’abord présentés les aspects théoriques entourant la SRR. Par la suite, les nanotubes de carbone (NTC) sont décrits et utilisés pour montrer la pertinence d’une telle technique. Ensuite, le principe de fonctionnement des filtres est décrit pour être suivi de l’article où sont parus les principaux résultats de ce travail. On y trouvera entre autres la caractérisation optique des filtres. Les limites de basses fréquences du système sont démontrées en effectuant des mesures sur un échantillon de soufre dont la raie à 27 cm-1 est clairement résolue. La simplicité d’accordabilité est quant à elle démontrée par l’utilisation d’un échantillon de NTC en poudre. En variant la longueur d’onde (l’énergie d’excitation), différentes chiralités sont observées et par le fait même, différentes raies sont présentes dans les spectres. Finalement, des précisions sur l’alignement, l’optimisation et l’opération du système sont décrites. La faible acceptance angulaire est l’inconvénient majeur de l’utilisation de ce type de filtre. Elle se répercute en problème d’atténuation ce qui est critique plus particulièrement pour le filtre coupe-bande. Des améliorations possibles face à cette limitation sont étudiées.
Resumo:
La présente étude examine les causes de déchéance du droit à limitation de responsabilité du transporteur maritime de marchandises. En règle générale, les plafonds d’indemnisation fixés par les conventions internationales écartent la réparation intégrale du préjudice causé par le transporteur maritime de marchandises. Cependant, il est également prévu un certain nombre de causes de déchéance de ce droit à limitation, pour lesquelles les conditions d’application diffèrent d’une convention internationale à l’autre (Règles de La Haye, Règles de La Haye-Visby, Règles de Hambourg et Règles de Rotterdam). Parallèlement, les tribunaux nationaux, par le recours à des notions propres de leurs systèmes juridiques, modifient l’étendue des causes de déchéance de ce droit. En somme, la déchéance du droit à limitation de responsabilité variera selon la convention internationale appliquée et selon la juridiction compétente. Ce qui, en définitive, porte atteinte à la structuration rationnelle du régime de responsabilité du transporteur maritime dans sa globalité et à l’objectif d’uniformisation poursuivi jusqu’ici.
Resumo:
Rapport de recherche présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Maîtrise en sciences économiques.
Resumo:
La sclérodermie est une maladie méconnue par la population en général et également par les professionnels de la santé. La méconnaissance est reliée en partie à l’aspect que la sclérodermie est une maladie rare et reçoit peu d’intérêt de la part des chercheurs, des organismes subventionnaires et des compagnies pharmaceutiques. Ainsi, à l’heure actuelle, peu d’études ont été réalisées pour comprendre la signification de l’expérience de femmes atteintes de sclérodermie et vivant avec une limitation fonctionnelle. La présente étude avait pour but de décrire et comprendre la signification de l’expérience de femmes atteintes de sclérodermie avec une limitation fonctionnelle. L’étudiante-chercheuse a utilisé la perspective infirmière de Watson, la philosophie du caring humain (1988, 1999, 2005, 2006a, 2008). La méthode qualitative de type phénoménologique de Giorgi (1997) a été choisie pour analyser les entrevues. Six femmes ont accepté de participer en partageant leur expérience lors d’un entretien individuel. L’analyse des données a fait émerger trois thèmes, soit : Urgence de vouloir vivre, Déclin de l’autonomie comme source de souffrance et Réappropriation continue du soi. Les résultats permettent de mieux comprendre l’expérience de femmes atteintes de sclérodermie et vivant avec une limitation fonctionnelle. L’incertitude de l’évolution de la sclérodermie dans la vie de ces femmes contribue grandement à l’urgence de vouloir vivre normalement avant qu’il ne soit trop tard. Les résultats évoquent les stratégies adaptatives qu’elles choisissent pour y parvenir, tout en vivant des moments de détresse accompagnés d’espoir. Cette détresse psychologique et émotionnelle est teintée par les conséquences limitantes liées aux symptômes et à l’atteinte à l’image corporelle. Au quotidien, ces femmes se réapproprient un soi qui se renouvèle avec l’évolution de la maladie, la sclérodermie.
Resumo:
Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.
Resumo:
Dans ce mémoire, nous nous proposons de montrer que le concept kantien de chose en soi est à la fois un concept métaphysique et un concept critique. En ce sens, la chose en soi doit être comprise comme un objet transcendantal réel qui existe à titre de cause des phénomènes. Si, contrairement à ce que soutenaient F.H. Jacobi (1787) et G.E. Schulze (1791), cela ne suppose pas de sortir du criticisme, c'est qu'une telle affirmation prend la forme d'une connaissance analogique qui respecte les limites de la connaissance humaine. De fait, la connaissance analogique permet de pointer en direction de quelque chose dont la nature (Beschaffenheit) peut demeurer problématique, tout en permettant d'affirmer son existence (Dasein). Nous serons dès lors conduite à montrer que la Critique de la raison pure fournit bel et bien les outils nécessaires permettant de rendre compte de l’existence des choses en soi à titre de causes des phénomènes.
Inference for nonparametric high-frequency estimators with an application to time variation in betas
Resumo:
We consider the problem of conducting inference on nonparametric high-frequency estimators without knowing their asymptotic variances. We prove that a multivariate subsampling method achieves this goal under general conditions that were not previously available in the literature. We suggest a procedure for a data-driven choice of the bandwidth parameters. Our simulation study indicates that the subsampling method is much more robust than the plug-in method based on the asymptotic expression for the variance. Importantly, the subsampling method reliably estimates the variability of the Two Scale estimator even when its parameters are chosen to minimize the finite sample Mean Squared Error; in contrast, the plugin estimator substantially underestimates the sampling uncertainty. By construction, the subsampling method delivers estimates of the variance-covariance matrices that are always positive semi-definite. We use the subsampling method to study the dynamics of financial betas of six stocks on the NYSE. We document significant variation in betas within year 2006, and find that tick data captures more variation in betas than the data sampled at moderate frequencies such as every five or twenty minutes. To capture this variation we estimate a simple dynamic model for betas. The variance estimation is also important for the correction of the errors-in-variables bias in such models. We find that the bias corrections are substantial, and that betas are more persistent than the naive estimators would lead one to believe.
Resumo:
Le thème de l’émergence de la Raison à partir du mythe est central à La dialectique de la Raison et à l’entreprise générale de l’École de Francfort. C’est que ce qui s’annonçait comme une libération par rapport à la pensée mythique et à la domination justifiée par celle-ci s’est retourné : la liberté vis-à-vis de l’arbitraire de la nature s’est payé d’un asservissement plus grand encore. Et, à son sommet, la raison a fini par replonger dans le mythe. Dans cet essai, nous proposons, en suivant Adorno, une analyse de cette «nouvelle domination» en montrant de quelle façon l’Aufklärung est venue restreindre le champ de la possibilité. Cela appelle à penser la domination non pas comme une simple imposition hétéronome, mais, plus fondamentalement, comme un étouffement du possible.
Resumo:
The increasing interest in the interaction of light with electricity and electronically active materials made the materials and techniques for producing semitransparent electrically conducting films particularly attractive. Transparent conductors have found major applications in a number of electronic and optoelectronic devices including resistors, transparent heating elements, antistatic and electromagnetic shield coatings, transparent electrode for solar cells, antireflection coatings, heat reflecting mirrors in glass windows and many other. Tin doped indium oxide (indium tin oxide or ITO) is one of the most commonly used transparent conducting oxides. At present and likely well into the future this material offers best available performance in terms of conductivity and transmittivity combined with excellent environmental stability, reproducibility and good surface morphology. Although partial transparency, with a reduction in conductivity, can be obtained for very thin metallic films, high transparency and simultaneously high conductivity cannot be attained in intrinsic stoichiometric materials. The only way this can be achieved is by creating electron degeneracy in a wide bandgap (Eg > 3eV or more for visible radiation) material by controllably introducing non-stoichiometry and/or appropriate dopants. These conditions can be conveniently met for ITO as well as a number of other materials like Zinc oxide, Cadmium oxide etc. ITO shows interesting and technologically important combination of properties viz high luminous transmittance, high IR reflectance, good electrical conductivity, excellent substrate adherence and chemical inertness. ITO is a key part of solar cells, window coatings, energy efficient buildings, and flat panel displays. In solar cells, ITO can be the transparent, conducting top layer that lets light into the cell to shine the junction and lets electricity flow out. Improving the ITO layer can help improve the solar cell efficiency. A transparent ii conducting oxide is a material with high transparency in a derived part of the spectrum and high electrical conductivity. Beyond these key properties of transparent conducting oxides (TCOs), ITO has a number of other key characteristics. The structure of ITO can be amorphous, crystalline, or mixed, depending on the deposition temperature and atmosphere. The electro-optical properties are a function of the crystallinity of the material. In general, ITO deposited at room temperature is amorphous, and ITO deposited at higher temperatures is crystalline. Depositing at high temperatures is more expensive than at room temperature, and this method may not be compatible with the underlying devices. The main objective of this thesis work is to optimise the growth conditions of Indium tin oxide thin films at low processing temperatures. The films are prepared by radio frequency magnetron sputtering under various deposition conditions. The films are also deposited on to flexible substrates by employing bias sputtering technique. The films thus grown were characterised using different tools. A powder x-ray diffractometer was used to analyse the crystalline nature of the films. The energy dispersive x-ray analysis (EDX) and scanning electron microscopy (SEM) were used for evaluating the composition and morphology of the films. Optical properties were investigated using the UVVIS- NIR spectrophotometer by recording the transmission/absorption spectra. The electrical properties were studied using vander Pauw four probe technique. The plasma generated during the sputtering of the ITO target was analysed using Langmuir probe and optical emission spectral studies.
Resumo:
Electromagnetic scattering behaviour of a superstrate loaded metallo– dielectric structure based on Sierpinski carpet fractal geometry is reported. The results indicate that the frequency at which backscattering is minimum can be tuned by varying the thickness of the superstrate. A reduction in backscattered power of 44 dB is obtained simultaneously for both TE and TM polarisations of the incident field.
Resumo:
The radio frequency plasma generated during the sputtering of Indium Tin Oxide target using Argon was analyzed by Langmuir probe and optical-emission spectroscopy. The basic plasma parameters such as electron temperature and ion density were evaluated. These studies were carried out by varying the RF power from 20 to 50 W. A linear increase in ion density and an exponential decrease in electron temperature with rf power were observed. The measured plasma parameters were then correlated with the properties of ITO thin films deposited under similar plasma conditions.
Resumo:
A trapezoidal strip grating surface that eliminates specular reflections almost over the entire X -band frequency range for TM polarization is reported This new grating structure overcomes the bandwidth limitation of conventional rectangular strip grating surfaces