913 resultados para Fourier and Laplace Transforms
Resumo:
Cardiovascular disease is one of the leading causes of death worldwide, and evidence indicates a correlation between the inflammatory process and cardiac dysfunction. Selective inhibitors of cyclooxygenase-2 (COX-2) enzyme are not recommended for long-term use because of potentially severe side effects to the heart. Considering this and the frequent prescribing of commercial celecoxib, the present study analyzed cellular and molecular effects of 1 and 10 µM celecoxib in a cell culture model. After a 24-h incubation, celecoxib reduced cell viability in a dose-dependent manner as also demonstrated in MTT assays. Furthermore, reverse transcription-polymerase chain reaction analysis showed that the drug modulated the expression level of genes related to death pathways, and Western blot analyses demonstrated a modulatory effect of the drug on COX-2 protein levels in cardiac cells. In addition, the results demonstrated a downregulation of prostaglandin E2 production by the cardiac cells incubated with celecoxib, in a dose-specific manner. These results are consistent with the decrease in cell viability and the presence of necrotic processes shown by Fourier transform infrared analysis, suggesting a direct correlation of prostanoids in cellular homeostasis and survival.
Resumo:
Full contour monolithic zirconia restorations have shown an increased popularity in the dental field over the recent years, owing to its mechanical and acceptable optical properties. However, many features of the restoration are yet to be researched and supported by clinical studies to confirm its place among the other indirect restorative materials This series of in vitro studies aimed at evaluating and comparing the optical and mechanical properties, light cure irradiance, and cement polymerization of multiple monolithic zirconia material at variable thicknesses, environments, treatments, and stabilization. Five different monolithic zirconia materials, four of which were partially stabilized and one fully stabilized were investigated. The optical properties in terms of surface gloss, translucency parameter, and contrast ratio were determined via a reflection spectrophotometer at variable thicknesses, coloring, sintering method, and after immersion in an acidic environment. Light cure irradiance and radiant exposure were quantified through the specimens at variable thicknesses and the degree of conversion of two dual-cure cements was determined via Fourier Transform Infrared spectroscopy. Bi-axial flexural strength was evaluated to compare between the partially and fully stabilized zirconia prepared using different coloring and sintering methods. Surface characterization was performed using a scanning electron microscope and a spinning disk confocal microscope. The surface gloss and translucency of the zirconia investigated were brand and thickness dependent with the translucency values decreasing as the thickness increased. Staining decreased the translucency of the zirconia and enhanced surface gloss as well as the flexural strength of the fully stabilized zirconia but had no effect on partially stabilized zirconia. Immersion in a corrosive acid increased surface gloss and decreased the translucency of some zirconia brands. Zirconia thickness was inversely related to the amount of light irradiance, radiant exposure, and degree of monomer conversion. Type of sintering furnace had no effect on the optical and mechanical properties of zirconia. Monolithic zirconia maybe classified as a semi-translucent material that is well influenced by the thickness, limiting its use in the esthetic zones. Conventional acid-base reaction, autopolymerizing and dual-cure cements are recommended for its cementation. Its desirable mechanical properties give it a high potential as a restoration for posterior teeth. However, close monitoring with controlled clinical studies must be determined before any definite clinical recommendations can be drawn.
Resumo:
Olive mill wastewater, hereafter noted as OMWW was tested for its composition in phenolic compounds according to geographical areas of olive tree, i.e. the plain and the mountainous areas of Tadla-Azilal region (central Morocco). Biophenols extraction with ethyl acetate was efficient and the phenolic extract from the mountainous areas had the highest concentration of total phenols' content. Fourier-Transform-Middle Infrared (FT-MIR) spectroscopy of the extracts revealed vibration bands corresponding to acid, alcohol and ketone functions. Additionally, HPLC-ESI-MS analyses showed that phenolic alcohols, phenolic acids, flavonoids, secoiridoids and derivatives and lignans represent the most abundant phenolic compounds. Nüzhenide, naringenin and long chain polymeric substances were also detected. Mountainous areas also presented the most effective DPPH scavenging potential compared to plain areas; IC50 values were 11.7 ± 5.6 µg/ml and 30.7 ± 4.4 µg/ml, respectively. OMWW was confirmed as a rich source of natural phenolic antioxidant agents.
Resumo:
An analytical model for bacterial accumulation in a discrete fractllre has been developed. The transport and accumlllation processes incorporate into the model include advection, dispersion, rate-limited adsorption, rate-limited desorption, irreversible adsorption, attachment, detachment, growth and first order decay botl1 in sorbed and aqueous phases. An analytical solution in Laplace space is derived and nlln1erically inverted. The model is implemented in the code BIOFRAC vvhich is written in Fortran 99. The model is derived for two phases, Phase I, where adsorption-desorption are dominant, and Phase II, where attachment-detachment are dominant. Phase I ends yvhen enollgh bacteria to fully cover the substratllm have accllillulated. The model for Phase I vvas verified by comparing to the Ogata-Banks solution and the model for Phase II was verified by comparing to a nonHomogenous version of the Ogata-Banks solution. After verification, a sensitiv"ity analysis on the inpllt parameters was performed. The sensitivity analysis was condllcted by varying one inpllt parameter vvhile all others were fixed and observing the impact on the shape of the clirve describing bacterial concentration verSllS time. Increasing fracture apertllre allovvs more transport and thus more accllffilliation, "Vvhich diminishes the dllration of Phase I. The larger the bacteria size, the faster the sllbstratum will be covered. Increasing adsorption rate, was observed to increase the dllration of Phase I. Contrary to the aSSllmption ofllniform biofilm thickness, the accllffilliation starts frOll1 the inlet, and the bacterial concentration in aqlleous phase moving towards the olitiet declines, sloyving the accumulation at the outlet. Increasing the desorption rate, redllces the dliration of Phase I, speeding IIp the accllmlilation. It was also observed that Phase II is of longer duration than Phase I. Increasing the attachment rate lengthens the accliffililation period. High rates of detachment speeds up the transport. The grovvth and decay rates have no significant effect on transport, althollgh increases the concentrations in both aqueous and sorbed phases are observed. Irreversible adsorption can stop accllillulation completely if the vallIes are high.
Resumo:
Four problems of physical interest have been solved in this thesis using the path integral formalism. Using the trigonometric expansion method of Burton and de Borde (1955), we found the kernel for two interacting one dimensional oscillators• The result is the same as one would obtain using a normal coordinate transformation, We next introduced the method of Papadopolous (1969), which is a systematic perturbation type method specifically geared to finding the partition function Z, or equivalently, the Helmholtz free energy F, of a system of interacting oscillators. We applied this method to the next three problems considered• First, by summing the perturbation expansion, we found F for a system of N interacting Einstein oscillators^ The result obtained is the same as the usual result obtained by Shukla and Muller (1972) • Next, we found F to 0(Xi)f where A is the usual Tan Hove ordering parameter* The results obtained are the same as those of Shukla and Oowley (1971), who have used a diagrammatic procedure, and did the necessary sums in Fourier space* We performed the work in temperature space• Finally, slightly modifying the method of Papadopolous, we found the finite temperature expressions for the Debyecaller factor in Bravais lattices, to 0(AZ) and u(/K/ j,where K is the scattering vector* The high temperature limit of the expressions obtained here, are in complete agreement with the classical results of Maradudin and Flinn (1963) .
Resumo:
Jet-cooled, laser-induced phosphorescence excitation spectra (LIP) of thioacetaldehyde CH3CHS, CH3CDS, CD3CHS and CD3CDS have been observed over the region 15800 - 17300 cm"^ in a continuous pyrolysis jet. The vibronic band structure of the singlet-triplet n -* n* transition were attributed to the strong coupling of the methyl torsion and aldehydic hydrogen wagging modes . The vibronic peaks have been assigned in terms of two upper electronic state (T^) vibrations; the methyl torsion mode v^g, and the aldehydic hydrogen wagging mode v^^. The electronic origin O^a^ is unequivocally assigned as follows: CH3CHS (16294.9 cm"'' ), CH3CDS (16360.9 cm"'' ), CD3CHS (16299.7 cm"^ ), and CD3CDS (16367.2 cm"'' ). To obtain structural and dynamical information about the two electronic states, potential surfaces V(e,a) for the 6 (methyl torsion) and a (hydrogen wagging) motions were generated by ab initio quantum mechanical calculations with a 6-3 IG* basis in which the structural parameters were fully relaxed. The kinetic energy coefficients BQ(a,e) , B^(a,G) , and the cross coupling term B^(a,e) , were accurately represented as functions of the two active coordinates, a and 9. The calculations reveal that the molecule adopts an eclipsed conformation for the lower Sq electronic state (a=0°,e=0"') with a barrier height to internal rotation of 541.5 cm"^ which is to be compared to 549.8 cm"^ obtained from the microwave experiment. The conformation of the upper T^ electronic state was found to be staggered (a=24 . 68° ,e=-45. 66° ) . The saddle point in the path traced out by the aldehyde wagging motion was calculated to be 175 cm"^ above the equilibrium configuration. The corresponding maxima in the path taken by methyl torsion was found to be 322 cm'\ The small amplitude normal vibrational modes were also calculated to aid in the assignment of the spectra. Torsional-wagging energy manifolds for the two states were derived from the Hamiltonian H(a,e) which was solved variationally using an extended two dimensional Fourier expansion as a basis set. A torsionalinversion band spectrum was derived from the calculated energy levels and Franck-Condon factors, and was compared with the experimental supersonic-jet spectra. Most of the anomalies which were associated with the interpretation of the observed spectrum could be accounted for by the band profiles derived from ab initio SCF calculations. A model describing the jet spectra was derived by scaling the ab initio potential functions. The global least squares fitting generates a triplet state potential which has a minimum at (a=22.38° ,e=-41.08°) . The flatter potential in the scaled model yielded excellent agreement between the observed and calculated frequency intervals.
Resumo:
Vagal baroreflex sensitivity (BRS) is a measure of short term blood pressure (BP) regulation through alterations in heart rate. Low BRS reflects impaired autonomic system regulation and has been found to be a surrogate marker for cardiovascular health. In particular, it has found to be associated with the pathogenesis of adult hypertension. However, only limited information exists as to the negative consequences of childhood BP on baroreflex function. The objective of this study was to investigate BRS in children with 2 different BP profiles while controlling for the effects of age, maturation, sex, and body composition. A preliminary subsample of 11-14 year-old children from the HBEAT (Heart Behavioural Environmental Assessment Team) Study was selected. The children were divided into 2 BP groups; high BP (HBP; 2:95tl1 percentile, n=21) and normal BP (NBP; <90th percentile, n=85). Following an initial 15 minutes of supine rest, 5 minutes of continuous beat-to-beat BP (Finapres) and RR interval (RRI) were recorded (standard ECG). Spectral indices were computed using Fast Fourier Transform and transfer function analysis was used to compute BRS. High frequency (HF) and low frequency (LF) power spectral areas were set to 0.15-0.4 Hz and 0.04-0.15 Hz, respectively. Body composition was measured using body mass index. After adjusting for body composition, maturation, age and sex ANCOV A results were as follows; LF and HF BRS, LF and HF RRI, and RRI total power were lower in the HBP versus NBP participants (p<0.05). As well, LF IHF SBP ratio was significantly higher in the HBP compared to the NBP group (p<0.05). The regression coefficients (unstandardized B) indicated that in changing groups (NBP to HBP) LF and HF BRS decreases by 4.04 and 6.18 ms/mmHg, respectively. Thus, as BP increases, BRS decreases. These data suggest that changes in autonomic activity occur in children who have HBP, regardless of age, sex, maturation, and body composition. Thus, despite their young age and relatively short amount of time having high BP compared with adults, these children are already demonstrating poor BP regulation and reduced cardiovagal activity. Given that childhood BP is associated with hypertension in adulthood, there is a growing concern in regards to the current cardiovascular health of our children and future adults.
Resumo:
Developmental coordination disorder (DCD) is a motor coordination disorder that is characterized by impairment of motor skills which leads to challenges with performing activities of daily living. Children with DCD have been shown to be less physically active and have increased body fatness. This is an important finding since a sedentary lifestyle and obesity are risk factors for cardiovascular disease. One indicator of cardiovascular health is baroreflex sensitivity (BRS), which is a measure of short term BP regulation that is accomplished through changes in HR. Diminished BRS is predictive of cardiovascular morbidity and mortality. The purpose of this study was to investigate BRS in 117 children aged 12 to 13 years with probable DCD (pOCO) and their matched controls with normal coordination. Following 15 minutes of supine rest, five minutes of continuous beat-by-beat blood pressure (Finapres) and RR interval were recorded (standard ECG). Spectral indices were computed using Fast Fourier Transform and transfer function analysis was used to compute BRS. High frequency and low frequency power spectral areas were set to 0.15-0.6 Hz and 0.04-0.15 Hz, respectively. BRS was compared between groups with an independent t-test and the difference was not significant. It is likely that a difference in BRS was not seen between groups since the difference in BMI between groups was small. As well, differences in BRS may not have manifested yet at this early age. However, the cardiovascular health of this population still deserves attention since differences in body composition and fitness were found between groups.
Resumo:
Cette présentation examinera le degré de certitude qui peut être atteint dans le domaine scientifique. Le paradigme scientifique est composé de deux extrêmes; causalité et déterminisme d'un côté et probabilité et indéterminisme de l'autre. En faisant appel aux notions de Hume de la ressemblance et la contiguïté, on peut rejeter la causalité ou le hasard objectif comme étant sans fondement et non empirique. Le problème de l'induction et le sophisme du parieur proviennent d’une même source cognitif / heuristique. Hume décrit ces tendances mentales dans ses essais « Of Probability » et « Of the Idea of Necessary Connexion ». Une discussion sur la conception de la probabilité de Hume ainsi que d'autres interprétations de probabilité sera nécessaire. Même si la science glorifie et idéalise la causalité, la probabilité peut être comprise comme étant tout aussi cohérente. Une attitude probabiliste, même si elle est également non empirique, pourrait être plus avantageuse que le vieux paradigme de la causalité.
Resumo:
Nous y introduisons une nouvelle classe de distributions bivariées de type Marshall-Olkin, la distribution Erlang bivariée. La transformée de Laplace, les moments et les densités conditionnelles y sont obtenus. Les applications potentielles en assurance-vie et en finance sont prises en considération. Les estimateurs du maximum de vraisemblance des paramètres sont calculés par l'algorithme Espérance-Maximisation. Ensuite, notre projet de recherche est consacré à l'étude des processus de risque multivariés, qui peuvent être utiles dans l'étude des problèmes de la ruine des compagnies d'assurance avec des classes dépendantes. Nous appliquons les résultats de la théorie des processus de Markov déterministes par morceaux afin d'obtenir les martingales exponentielles, nécessaires pour établir des bornes supérieures calculables pour la probabilité de ruine, dont les expressions sont intraitables.
Resumo:
Dans cette thèse l’ancienne question philosophique “tout événement a-t-il une cause ?” sera examinée à la lumière de la mécanique quantique et de la théorie des probabilités. Aussi bien en physique qu’en philosophie des sciences la position orthodoxe maintient que le monde physique est indéterministe. Au niveau fondamental de la réalité physique – au niveau quantique – les événements se passeraient sans causes, mais par chance, par hasard ‘irréductible’. Le théorème physique le plus précis qui mène à cette conclusion est le théorème de Bell. Ici les prémisses de ce théorème seront réexaminées. Il sera rappelé que d’autres solutions au théorème que l’indéterminisme sont envisageables, dont certaines sont connues mais négligées, comme le ‘superdéterminisme’. Mais il sera argué que d’autres solutions compatibles avec le déterminisme existent, notamment en étudiant des systèmes physiques modèles. Une des conclusions générales de cette thèse est que l’interprétation du théorème de Bell et de la mécanique quantique dépend crucialement des prémisses philosophiques desquelles on part. Par exemple, au sein de la vision d’un Spinoza, le monde quantique peut bien être compris comme étant déterministe. Mais il est argué qu’aussi un déterminisme nettement moins radical que celui de Spinoza n’est pas éliminé par les expériences physiques. Si cela est vrai, le débat ‘déterminisme – indéterminisme’ n’est pas décidé au laboratoire : il reste philosophique et ouvert – contrairement à ce que l’on pense souvent. Dans la deuxième partie de cette thèse un modèle pour l’interprétation de la probabilité sera proposé. Une étude conceptuelle de la notion de probabilité indique que l’hypothèse du déterminisme aide à mieux comprendre ce que c’est qu’un ‘système probabiliste’. Il semble que le déterminisme peut répondre à certaines questions pour lesquelles l’indéterminisme n’a pas de réponses. Pour cette raison nous conclurons que la conjecture de Laplace – à savoir que la théorie des probabilités présuppose une réalité déterministe sous-jacente – garde toute sa légitimité. Dans cette thèse aussi bien les méthodes de la philosophie que de la physique seront utilisées. Il apparaît que les deux domaines sont ici solidement reliés, et qu’ils offrent un vaste potentiel de fertilisation croisée – donc bidirectionnelle.
Resumo:
Le but de ce mémoire de maîtrise est de décrire les propriétés de la loi double Pareto-lognormale, de montrer comment on peut introduire des variables explicatives dans le modèle et de présenter son large potentiel d'applications dans le domaine de la science actuarielle et de la finance. Tout d'abord, nous donnons la définition de la loi double Pareto-lognormale et présentons certaines de ses propriétés basées sur les travaux de Reed et Jorgensen (2004). Les paramètres peuvent être estimés en utilisant la méthode des moments ou le maximum de vraisemblance. Ensuite, nous ajoutons une variable explicative à notre modèle. La procédure d'estimation des paramètres de ce mo-\\dèle est également discutée. Troisièmement, des applications numériques de notre modèle sont illustrées et quelques tests statistiques utiles sont effectués.
Resumo:
Les enjeux liés aux politiques éducatives ont considérablement changé au cours des dernières décennies. Ces changements sont liés, entre autres, à l’accroissement de l’imputabilité et de la reddition de compte qui est devenue une caractéristique importante des réformes curriculaires et pédagogiques. Les politiques à enjeux élevés exercent une pression énorme sur les districts et les écoles états-unienne afin qu’ils augmentent le rendement des élèves en utilisant des systèmes de conséquences (Hall & Ryan, 2011; Loeb & Strunk, 2007). Ces politiques envoient de puissants messages sur l'importance de certaines matières scolaires au détriment d'autres - circonscrivant les exigences en termes de compétences et de connaissances. La langue maternelle d’enseignement et les mathématiques sont devenues des mesures centrales sur lesquelles reposent l’évaluation et le degré de performance des districts et des écoles. Conséquemment, les administrateurs de districts et les directions d’écoles ont souvent recours à des réformes curriculaires et pédagogiques comme moyen d'augmenter le rendement des élèves dans les matières scolaires visées par ces politiques. Les politiques contraignent les acteurs scolaires de concentrer les ressources sur les programmes curriculaires et les évaluations, le développement professionnel, et la prise de décision pilotée par les données (Anagnostopoulos & Ruthledge, 2007; Honig & Hatch, 2004; Spillane, Diamond, et al., 2002; Weitz White & Rosenbaum, 2008). Cette thèse examine la manière dont les politiques à enjeux élevés opèrent quotidiennement dans les interactions et les pratiques au sein des écoles. Nous analysons plus particulièrement les différents messages provenant de la politique transmis aux acteurs scolaires sur les manières d'apporter des changements substantiels dans le curriculum et l'enseignement. Nous élargissons l’analyse en prenant en compte le rôle des administrateurs de district ainsi que des partenaires universitaires qui façonnent également la manière dont certains aspects des messages provenant des politiques sont transmis, négociés et/ou débattus et d’autres sont ignorés (Coburn & Woulfin, 2012). En utilisant l’analyse de discours, nous examinons le rôle du langage comme constituant et médiateur des interactions sociales entre les acteurs scolaires et d’autres parties prenantes. De telles analyses impliquent une investigation approfondie d’un nombre d’étude de cas limité. Les données utilisées dans cette thèse ont été colligées dans une école primaire états-unienne du mid-West. Cette étude de cas fait partie d’une étude longitudinale de quatre ans qui comprenait huit écoles dans les milieux urbains entre 1999 et 2003 (Distributed Leadership Studies, http://www.distributedleadership.org). La base de données analysée inclut des observations de réunions formelles et des entrevues auprès des administrateurs du district, des partenaires universitaires, de la direction d’école et des enseignants. En plus de l’introduction et de la problématique (chapitre 1) et de discussion et conclusion (chapitre 5), cette thèse comprend un ensemble de trois articles interdépendants. Dans le premier article (chapitre 2), nous effectuons une recension des écrits portant sur le domaine de l’implantation de politiques (policy implementation) et la complexité des relations locales, nationales et internationales dans les systèmes éducatifs. Pour démystifier cette complexité, nous portons une attention particulière à la construction de sens des acteurs scolaires comme étant une dimension clé du processus de mise en œuvre des réformes. Dans le deuxième article (chapitre 3), nous cherchons à comprendre les processus sociaux qui façonnent les réponses stratégiques des acteurs scolaires à l’égard des politiques du district et de l’état et en lien avec la mise en œuvre d’un curriculum prescrit en mathématiques. Plus particulièrement, nous explorons les différentes situations dans lesquelles les acteurs scolaires argumentent au sujet des changements curriculaires et pédagogiques proposés par les administrateurs de district et des partenaires universitaires afin d’augmenter les résultats scolaires en mathématiques dans une école à faible performance. Dans le troisième article (chapitre 4), nous cherchons à démystifier les complexités liées à l’amélioration de l’enseignement dans un environnement de politiques à enjeux élevés. Pour ce faire, nous utilisons l'interaction entre les notions d'agentivité et la structure afin d'analyser la manière dont les conceptions d’imputabilité et les idées qui découlent de l'environnement politique et les activités quotidiennes jouent dans les interactions entre les acteurs scolaires concernant sur l’enseignement de la langue maternelle. Nous explorons trois objectifs spécifiques : 1) la manière dont les politiques à enjeux élevés façonnent les éléments de l’enseignement qui sont reproduits et ceux qui sont transformés au fil du temps ; 2) la manière dont la compréhension des leaders de l’imputabilité façonne les aspects des messages politiques que les acteurs scolaires remarquent à travers les interactions et les conversations et 3) la manière les acteurs scolaires portent une attention particulière à certaines messages au détriment d’autres. Dans le dernier chapitre de cette thèse, nous discutons les forces et les limites de l’analyse secondaire de données qualitatives, les implications des résultats pour le domaine d’études de l’implantation de politiques et les pistes futures de recherches.
Resumo:
En synthèse d’images, reproduire les effets complexes de la lumière sur des matériaux transluminescents, tels que la cire, le marbre ou la peau, contribue grandement au réalisme d’une image. Malheureusement, ce réalisme supplémentaire est couteux en temps de calcul. Les modèles basés sur la théorie de la diffusion visent à réduire ce coût en simulant le comportement physique du transport de la lumière sous surfacique tout en imposant des contraintes de variation sur la lumière incidente et sortante. Une composante importante de ces modèles est leur application à évaluer hiérarchiquement l’intégrale numérique de l’illumination sur la surface d’un objet. Cette thèse révise en premier lieu la littérature actuelle sur la simulation réaliste de la transluminescence, avant d’investiguer plus en profondeur leur application et les extensions des modèles de diffusion en synthèse d’images. Ainsi, nous proposons et évaluons une nouvelle technique d’intégration numérique hiérarchique utilisant une nouvelle analyse fréquentielle de la lumière sortante et incidente pour adapter efficacement le taux d’échantillonnage pendant l’intégration. Nous appliquons cette théorie à plusieurs modèles qui correspondent à l’état de l’art en diffusion, octroyant une amélioration possible à leur efficacité et précision.
Resumo:
La présente thèse porte sur différentes questions émanant de la géométrie spectrale. Ce domaine des mathématiques fondamentales a pour objet d'établir des liens entre la géométrie et le spectre d'une variété riemannienne. Le spectre d'une variété compacte fermée M munie d'une métrique riemannienne $g$ associée à l'opérateur de Laplace-Beltrami est une suite de nombres non négatifs croissante qui tend vers l’infini. La racine carrée de ces derniers représente une fréquence de vibration de la variété. Cette thèse présente quatre articles touchant divers aspects de la géométrie spectrale. Le premier article, présenté au Chapitre 1 et intitulé « Superlevel sets and nodal extrema of Laplace eigenfunctions », porte sur la géométrie nodale d'opérateurs elliptiques. L’objectif de mes travaux a été de généraliser un résultat de L. Polterovich et de M. Sodin qui établit une borne sur la distribution des extrema nodaux sur une surface riemannienne pour une assez vaste classe de fonctions, incluant, entre autres, les fonctions propres associées à l'opérateur de Laplace-Beltrami. La preuve fournie par ces auteurs n'étant valable que pour les surfaces riemanniennes, je prouve dans ce chapitre une approche indépendante pour les fonctions propres de l’opérateur de Laplace-Beltrami dans le cas des variétés riemanniennes de dimension arbitraire. Les deuxième et troisième articles traitent d'un autre opérateur elliptique, le p-laplacien. Sa particularité réside dans le fait qu'il est non linéaire. Au Chapitre 2, l'article « Principal frequency of the p-laplacian and the inradius of Euclidean domains » se penche sur l'étude de bornes inférieures sur la première valeur propre du problème de Dirichlet du p-laplacien en termes du rayon inscrit d’un domaine euclidien. Plus particulièrement, je prouve que, si p est supérieur à la dimension du domaine, il est possible d'établir une borne inférieure sans aucune hypothèse sur la topologie de ce dernier. L'étude de telles bornes a fait l'objet de nombreux articles par des chercheurs connus, tels que W. K. Haymann, E. Lieb, R. Banuelos et T. Carroll, principalement pour le cas de l'opérateur de Laplace. L'adaptation de ce type de bornes au cas du p-laplacien est abordée dans mon troisième article, « Bounds on the Principal Frequency of the p-Laplacian », présenté au Chapitre 3 de cet ouvrage. Mon quatrième article, « Wolf-Keller theorem for Neumann Eigenvalues », est le fruit d'une collaboration avec Guillaume Roy-Fortin. Le thème central de ce travail gravite autour de l'optimisation de formes dans le contexte du problème aux valeurs limites de Neumann. Le résultat principal de cet article est que les valeurs propres de Neumann ne sont pas toujours maximisées par l'union disjointe de disques arbitraires pour les domaines planaires d'aire fixée. Le tout est présenté au Chapitre 4 de cette thèse.