974 resultados para Lorenz curve
Resumo:
Understanding the overall catalytic activity trend for rational catalyst design is one of the core goals in heterogeneous catalysis. In the past two decades, the development of density functional theory (DFT) and surface kinetics make it feasible to theoretically evaluate and predict the catalytic activity variation of catalysts within a descriptor-based framework. Thereinto, the concept of the volcano curve, which reveals the general activity trend, usually constitutes the basic foundation of catalyst screening. However, although it is a widely accepted concept in heterogeneous catalysis, its origin lacks a clear physical picture and definite interpretation. Herein, starting with a brief review of the development of the catalyst screening framework, we use a two-step kinetic model to refine and clarify the origin of the volcano curve with a full analytical analysis by integrating the surface kinetics and the results of first-principles calculations. It is mathematically demonstrated that the volcano curve is an essential property in catalysis, which results from the self-poisoning effect accompanying the catalytic adsorption process. Specifically, when adsorption is strong, it is the rapid decrease of surface free sites rather than the augmentation of energy barriers that inhibits the overall reaction rate and results in the volcano curve. Some interesting points and implications in assisting catalyst screening are also discussed based on the kinetic derivation. Moreover, recent applications of the volcano curve for catalyst design in two important photoelectrocatalytic processes (the hydrogen evolution reaction and dye-sensitized solar cells) are also briefly discussed.
Resumo:
La tesi si prefigge di definire la molteplicità dell’intersezione tra due curve algebriche piane. La trattazione sarà sviluppata in termini algebrici, per mezzo dello studio degli anelli locali. In seguito, saranno discusse alcune proprietà e sarà proposto qualche esempio di calcolo. Nel terzo capitolo, l’interesse volgerà all’intersezione tra una varietà e un’ipersuperficie di uno spazio proiettivo n-dimensionale. Verrà definita un’ulteriore di molteplicità dell’intersezione, che costituirà una generalizzazione di quella menzionata nei primi due capitoli. A partire da questa definizione, sarà possibile enunciare una versione estesa del Teorema di Bezout. L’ultimo capitolo focalizza l’attenzione nuovamente sulle curve piane, con l’intento di studiarne la topologia in un intorno di un punto singolare. Si introduce, in particolare, l’importante nozione di link di un punto singolare.
Resumo:
Nel presente lavoro è affrontato lo studio delle curve ellittiche viste come curve algebriche piane, più precisamente come cubiche lisce nel piano proiettivo complesso. Dopo aver introdotto nella prima parte le nozioni di Superfici compatte e orientabili e curve algebriche, tramite il teorema di classificazione delle Superfici compatte, se ne fornisce una preliminare classificazione basata sul genere della superficie e della curva, rispettivamente. Da qui, segue la definizione di curve ellittiche e uno studio più dettagliato delle loro pricipali proprietà, quali la possibilità di definirle tramite un'equazione affine nota come equazione di Weierstrass e la loro struttura intrinseca di gruppo abeliano. Si fornisce quindi un'ulteriore classificazione delle cubiche lisce, totalmente differente da quella precedente, che si basa invece sul modulo della cubica, invariante per trasformazioni proiettive. Infine, si considera un aspetto computazionale delle curve ellittiche, ovvero la loro applicazione nel campo della Crittografia. Grazie alla struttura che esse assumono sui campi finiti, sotto opportune ipotesi, i crittosistemi a chiave pubblica basati sul problema del logaritmo discreto definiti sulle curve ellittiche, a parità di sicurezza rispetto ai crittosistemi classici, permettono l'utilizzo di chiavi più corte, e quindi meno costose computazionalmente. Si forniscono quindi le definizioni di problema del logaritmo discreto classico e sulle curve ellittiche, ed alcuni esempi di algoritmi crittografici classici definiti su quest'ultime.
Resumo:
Nell'elaborato, dopo una breve descrizione di come vengono suddivise le macchine elettriche a seconda che vi siano o meno parti in movimento al loro interno, vengono esaminati inizialmente gli aspetti teorici che riguardano le macchine sincrone a poli lisci ed a poli salienti prendendo in esame anche quelli che sono i provvedimenti necessari a ridurre il contributo dei campi armonici di ordine superiore. Per questo tipo di macchine, spesso utilizzate in centrale per la pruduzione dell'energia elettrica, risultano di fondamentale importanza le curve a "V" e le curve di "Capability". Esse sono strumenti che permettono di valutare le prestazioni di tali macchine una volta che siano noti i dati di targa delle stesse. Lo scopo della tesi è pertanto quello di sviluppare un software in ambiente Matlab che permetta il calcolo automatico e parametrico di tali curve al fine di poter ottimizzare la scelta di una macchina a seconda delle esigenze. Nel corso dell'eleaborato vengono altresì proposti dei confronti su come varino tali curve, e pertanto i limiti di funzionamento ad esse associati, al variare di alcuni parametri fondamentali come il fattore di potenza, la reattanza sincrona o, nel caso di macchine a poli salienti, il rapporto di riluttanza. Le curve di cui sopra sono state costruite a partire da considerazioni fatte sul diagramma di Behn-Eschemburg per le macchine isotrope o sul diagramma di Arnold e Blondel per le macchine anisotrope.
Resumo:
Negli ultimi anni, è aumentato notevolmente l'interesse per piante e prodotti vegetali, e composti da essi derivati od estratti, in alternativa ai conservanti chimici per prevenire o ritardare lo sviluppo microbico negli alimenti. Questo deriva dalla percezione negativa, ormai diffusa a livello pubblico, nei confronti di sostanze di sintesi che sono ampiamente utilizzate come conservanti nell’industria alimentare. Sono stati effettuati diversi studi sull’attività antimicrobica di questi composti negli alimenti, anche se il loro utilizzo a livello industriale è limitato. Ciò dipende dalla difficile standardizzazione di queste sostanze, dovuta alla variabilità della matrice alimentare che ne può alterarne l’attività antimicrobica. In questa sperimentazione si sono utilizzati l’olio essenziale di Sateureja montana e l’estratto di Cotinus coggygria e sono state fatte delle prove preliminari, determinandone le componenti volatili tramite gas-cromatografia abbinata a microestrazione in fase solida. Sono stati selezionati un ceppo di Listeria monocytogenes (Scott A) e uno di Saccharomyces cerevisiae (SPA), e sono stati utilizzati per realizzare curve di morte termica in sistema modello e in sistema reale. Dai risultati ottenuti si può affermare che Satureja montana e Cotinus coggygria possono essere presi in considerazione come antimicrobici naturali da impiegare per la stabilizzazione di alimenti, nonché per ridurre l’entità dei trattamenti termici atti a salvaguardare le proprietà nutrizionali ed organolettiche di alimenti, come ad esempio succhi di frutta, garantendone la sicurezza e qualità microbiologica.
Resumo:
Objective. Minimally invasive video-assisted thyroidectomy (MIVAT) is a technically demanding procedure and requires a surgical team skilled in both endocrine and endoscopic surgery. A time consuming learning and training period is mandatory at the beginning of the experience. The aim of our report is to focus some aspects of the learning curve of the surgeon who practices video-assisted thyroid procedures for the first time, through the analysis of our preliminary series of 36 cases. Patients and methods. From September 2004 to April 2005 we selected 36 patients for minimally invasive video-assisted surgery of the thyroid. The patients were considered eligible if they presented with a nodule not exceeding 35mm in maximum diameter; total thyroid volume within normal range; absence of biochemical and echographic signs of thyroiditis. We analyzed surgical results, conversion rate, operating time, post-operative complications, hospital stay, cosmetic outcome of the series. Results. We performed 36 total thyroidectomy. The procedure was successfully carried out in 33/36 cases. Post-operative complications included 3 transient recurrent nerve palsies and 2 transient hypocalcemias; no definitive hypoparathyroidism was registered. All patients were discharged 2 days after operation. The cosmetic result was considered excellent by most patients. Conclusions. Advances in skills and technology have enabled surgeons to reproduce most open surgical techniques with video-assistance or laparoscopically. Training is essential to acquire any new surgical technique and it should be organized in detail to exploit it completely.
Resumo:
Stated-preference valuation techniques are often used to assess consumers' willingness-to-pay for food items produced in farming systems that adopt a sustainable use of pesticides (SUP). We propose an innovative valuation methodology in which dichotomous-choice contingent valuation is used to estimate the demand curve (price-quantity relationship) for such food items where price means price premium for the SUP output, quantity is the probability of choosing SUP and the conventional food product is kept available in the market at the current market price. This methodology can be used to evaluate market differentiation as a policy option to promote the SUP. The methodology is tested with data from a sample of urban consumers of fruits and vegetables in Portugal. The estimated demand curve is used to define the price level maximizing the total premium revenue for the SUP sector as a whole. This optimal level of the price premium is €77.55 (or 163% of the value of the monthly basket of fruits and vegetables at current prices). Adopting the optimal price premium will decrease the number of consumers of SUP food by 54%. The reduction is even higher for low income consumers (80%) leaving them more exposed to the risks of pesticide use.
Resumo:
This paper provides a new reading of a classical economic relation: the short-run Phillips curve. Our point is that, when dealing with inflation and unemployment, policy-making can be understood as a multicriteria decisionmaking problem. Hence, we use so-called multiobjective programming in connection with a computable general equilibrium (CGE) model to determine the combinations of policy instruments that provide efficient combinations of inflation and unemployment. This approach results in an alternative version of the Phillips curve labelled as efficient Phillips curve. Our aim is to present an application of CGE models to a new area of research that can be especially useful when addressing policy exercises with real data. We apply our methodological proposal within a particular regional economy, Andalusia, in the south of Spain. This tool can give some keys for policy advice and policy implementation in the fight against unemployment and inflation.
Resumo:
The main aim of this study was to analyze evidence of an environmental Kuznets curve for water pollution in the developing and developed countries. The study was conducted based on a panel data set of 54 countries – that were categorized into six groups of “developed countries”, “developing countries”, “developed countries with low income”, “developed countries with high income” and “coastal countries”- between the years 1995 to 2006. The results do not confirm the inverted U-shape of EKC curve for the developed countries with low income. Based on the estimated turning points and the average GDP per capita, the study revealed at which point of the EKC the countries are. Furthermore, impacts of capital-and-labor ratio as well as trade openness are drawn by estimating different models for the EKC. The magnitude role of each explanatory variable on BOD was calculated by estimating the associated elasticity.
Resumo:
Purpose – Curve fitting from unordered noisy point samples is needed for surface reconstruction in many applications -- In the literature, several approaches have been proposed to solve this problem -- However, previous works lack formal characterization of the curve fitting problem and assessment on the effect of several parameters (i.e. scalars that remain constant in the optimization problem), such as control points number (m), curve degree (b), knot vector composition (U), norm degree (k), and point sample size (r) on the optimized curve reconstruction measured by a penalty function (f) -- The paper aims to discuss these issues -- Design/methodology/approach - A numerical sensitivity analysis of the effect of m, b, k and r on f and a characterization of the fitting procedure from the mathematical viewpoint are performed -- Also, the spectral (frequency) analysis of the derivative of the angle of the fitted curve with respect to u as a means to detect spurious curls and peaks is explored -- Findings - It is more effective to find optimum values for m than k or b in order to obtain good results because the topological faithfulness of the resulting curve strongly depends on m -- Furthermore, when an exaggerate number of control points is used the resulting curve presents spurious curls and peaks -- The authors were able to detect the presence of such spurious features with spectral analysis -- Also, the authors found that the method for curve fitting is robust to significant decimation of the point sample -- Research limitations/implications - The authors have addressed important voids of previous works in this field -- The authors determined, among the curve fitting parameters m, b and k, which of them influenced the most the results and how -- Also, the authors performed a characterization of the curve fitting problem from the optimization perspective -- And finally, the authors devised a method to detect spurious features in the fitting curve -- Practical implications – This paper provides a methodology to select the important tuning parameters in a formal manner -- Originality/value - Up to the best of the knowledge, no previous work has been conducted in the formal mathematical evaluation of the sensitivity of the goodness of the curve fit with respect to different possible tuning parameters (curve degree, number of control points, norm degree, etc.)
Resumo:
Dust attenuation affects nearly all observational aspects of galaxy evolution, yet very little is known about the form of the dust-attenuation law in the distant universe. Here, we model the spectral energy distributions of galaxies at z ~ 1.5–3 from CANDELS with rest-frame UV to near-IR imaging under different assumptions about the dust law, and compare the amount of inferred attenuated light with the observed infrared (IR) luminosities. Some individual galaxies show strong Bayesian evidence in preference of one dust law over another, and this preference agrees with their observed location on the plane of infrared excess (IRX, L_TIR/L_UV) and UV slope (β). We generalize the shape of the dust law with an empirical model, A_ λ,σ =E(B-V)k_ λ (λ / λ v)^ σ where k_λ is the dust law of Calzetti et al., and show that there exists a correlation between the color excess E(B-V) and tilt δ with δ =(0.62±0.05)log(E(B-V))+(0.26±0.02). Galaxies with high color excess have a shallower, starburst-like law, and those with low color excess have a steeper, SMC-like law. Surprisingly, the galaxies in our sample show no correlation between the shape of the dust law and stellar mass, star formation rate, or β. The change in the dust law with color excess is consistent with a model where attenuation is caused by scattering, a mixed star–dust geometry, and/or trends with stellar population age, metallicity, and dust grain size. This rest-frame UV-to-near-IR method shows potential to constrain the dust law at even higher redshifts (z>3).
Resumo:
I sensori a fibre ottiche rappresentano una delle tecnologie più promettenti per il monitoraggio di varie strutture ingegneristiche. Tali sensori, dopo che sono stati incollati su differenti tipologie di strutture grazie a un dispositivo optoelettronico, restituiscono il profilo di deformazione del materiale ospite. Tuttavia, risulta piuttosto complicato ottenere queste curve, in quanto sono necessari numerosi provini che richiedono spese onerose e molto tempo per i singoli esperimenti. In più, si deve tenere in considerazione che i provini non sono mai completamente identici e che l’operatore può commettere errori. In questo studio si genera un programma attraverso cui si simulano diversi andamenti di deformazione, cercando di riprodurre al meglio i vari casi sperimentali. Infine, utilizzando un codice già esistente, si ricavano le curve di probabilità di rilevamento del danno in funzione della lunghezza di cricca. Una volta creato il codice, si modificano alcuni parametri, in particolare si alterano lo shear lag e alcune caratteristiche meccaniche della fibra ottica, ovvero il raggio e il modulo di Young, per vedere l’influenza che hanno sulle curve di probabilità. I risultati hanno dimostrato che lo shear lag della fibra ottica deve essere il più possibile alto e di conseguenza il raggio e il modulo di Young della fibra devono essere bassi, in quanto quest’ultimi si trovano a denominatore della formula usata per calcolare lo shear lag.
Resumo:
La ricerca di esopianeti è un ambito astrofisico in continua evoluzione. Nuovi metodi vengono proposti con l’obiettivo di individuare pianeti con una varietà di caratteristiche sempre più ampia, per poter definire al meglio la storia di formazione ed evoluzione dei sistemi planetari. Un metodo recente in grado di caratterizzare pianeti di piccola massa è lo studio della variazione del tempo di transito (TTV), basato sulla modulazione del periodo orbitale di un pianeta noto causata dalla perturbazione di un corpo aggiuntivo. In questo lavoro proponiamo l’analisi delle curve di luce del pianeta XO-2Nb al fine di individuare TTV. Questo sistema è di particolare rilevanza poiché ospitato dalla prima stella binaria wide in cui entrambe le componenti presentano un proprio sistema planetario. Tra le due stelle solo XO-2N presenta un pianeta transitante, requisito per l’applicazione del metodo proposto. L’analisi dei dati è stata svolta utilizzando il metodo della fotometria differenziale di apertura, normalizzando la curva di luce del target ad altre due stelle di riferimento presenti nel campo di vista dello strumento. I risultati ottenuti evidenziano l’assenza di variazioni di periodo orbitale per XO-2Nb e sono consistenti con un’effemeride lineare. La nuova effemeride calcolata risulta tre volte più precisa rispetto al più recente studio in letteratura, e permetterà di predire futuri transiti con una precisione migliore di un minuto fino al 2035. Abbiamo stabilito un limite superiore all’ampiezza del TTV permessa dai nostri dati, ricavando il valore massimo della massa di un eventuale pianeta perturbatore, pari a 0.15 masse terrestri. Abbiamo ricavato in maniera indipendente i parametri fisici ed orbitali di XO-2Nb, confermando e raffinando i valori presenti in letteratura. I risultati ottenuti suggeriscono che, in determinati casi, l’analisi fotometrica eseguita utilizzando telescopi medio-piccoli da terra può essere competitiva con i più avanzati telescopi spaziali.
Resumo:
Purpose. To determine the mechanisms predisposing penile fracture as well as the rate of long-term penile deformity and erectile and voiding functions. Methods. All fractures were repaired on an emergency basis via subcoronal incision and absorbable suture with simultaneous repair of eventual urethral lesion. Patients' status before fracture and voiding and erectile functions at long term were assessed by periodic follow-up and phone call. Detailed history included cause, symptoms, and single-question self-report of erectile and voiding functions. Results. Among the 44 suspicious cases, 42 (95.4%) were confirmed, mean age was 34.5 years (range: 18-60), mean follow-up 59.3 months (range 9-155). Half presented the classical triad of audible crack, detumescence, and pain. Heterosexual intercourse was the most common cause (28 patients, 66.7%), followed by penile manipulation (6 patients, 14.3%), and homosexual intercourse (4 patients, 9.5%). Woman on top was the most common heterosexual position (n = 14, 50%), followed by doggy style (n = 8, 28.6%). Four patients (9.5%) maintained the cause unclear. Six (14.3%) patients had urethral injury and two (4.8%) had erectile dysfunction, treated by penile prosthesis and PDE-5i. No patient showed urethral fistula, voiding deterioration, penile nodule/curve or pain. Conclusions. Woman on top was the potentially riskiest sexual position (50%). Immediate surgical treatment warrants long-term very low morbidity.
Resumo:
Diabetic Retinopathy (DR) is a complication of diabetes that can lead to blindness if not readily discovered. Automated screening algorithms have the potential to improve identification of patients who need further medical attention. However, the identification of lesions must be accurate to be useful for clinical application. The bag-of-visual-words (BoVW) algorithm employs a maximum-margin classifier in a flexible framework that is able to detect the most common DR-related lesions such as microaneurysms, cotton-wool spots and hard exudates. BoVW allows to bypass the need for pre- and post-processing of the retinographic images, as well as the need of specific ad hoc techniques for identification of each type of lesion. An extensive evaluation of the BoVW model, using three large retinograph datasets (DR1, DR2 and Messidor) with different resolution and collected by different healthcare personnel, was performed. The results demonstrate that the BoVW classification approach can identify different lesions within an image without having to utilize different algorithms for each lesion reducing processing time and providing a more flexible diagnostic system. Our BoVW scheme is based on sparse low-level feature detection with a Speeded-Up Robust Features (SURF) local descriptor, and mid-level features based on semi-soft coding with max pooling. The best BoVW representation for retinal image classification was an area under the receiver operating characteristic curve (AUC-ROC) of 97.8% (exudates) and 93.5% (red lesions), applying a cross-dataset validation protocol. To assess the accuracy for detecting cases that require referral within one year, the sparse extraction technique associated with semi-soft coding and max pooling obtained an AUC of 94.2 ± 2.0%, outperforming current methods. Those results indicate that, for retinal image classification tasks in clinical practice, BoVW is equal and, in some instances, surpasses results obtained using dense detection (widely believed to be the best choice in many vision problems) for the low-level descriptors.