22 resultados para Power-to-Gas (P2G)
Resumo:
Market manipulation is an illegal practice that enables a person can profit from practices that artificially raise or lower the prices of an instrument in the financial markets. Its prohibition is based on the 2003 Market Abuse Directive in the EU. The current market manipulation regime was broadly considered as a big success except for enforcement and supervisory inconsistencies in the Member States at the initial. A review of the market manipulation regime began at the end of 2007, which became quickly incorporated into the wider EU crisis-era reform program. A number of weaknesses of current regime have been identified, which include regulatory gaps caused by the development of trading venues and financial products, regulatory gaps concerning cross-border and cross-markets manipulation (particular commodity markets), legal uncertainty as a result of various implementation, and inefficient supervision and enforcement. On 12 June 2014, a new regulatory package of market abuse, Market Abuse Regulation and Directive on criminal sanctions for market abuse, has been adopted. And several changes will be made concerning the EU market manipulation regime. A wider scope of the regime and a new prohibition of attempted market manipulation will ensure the prevention of market manipulation at large. The AMPs will be subject to strict scrutiny of ESMA to reduce divergences in implementation. In order to enhance efficiency of supervision and enforcement, powers of national competent authorities will be strengthened, ESMA is imposed more power to settle disagreement between national regulators, and the administrative and criminal sanctioning regimes are both further harmonized. In addition, the protection of fundamental rights is stressed by the new market manipulation regime, and some measures are provided to guarantee its realization. Further, the success EU market manipulation regime could be of significant reference to China, helping China to refine its immature regime.
Resumo:
This PhD thesis is focused on cold atmospheric plasma treatments (GP) for microbial inactivation in food applications. In fact GP represents a promising emerging technology alternative to the traditional methods for the decontamination of foods. The objectives of this work were to evaluate: - the effects of GP treatments on microbial inactivation in model systems and in real foods; - the stress response in L. monocytogenes following exposure to different GP treatments. As far as the first aspect, inactivation curves were obtained for some target pathogens, i.e. Listeria monocytogenes and Escherichia coli, by exposing microbial cells to GP generated with two different DBD equipments and processing conditions (exposure time, material of the electrodes). Concerning food applications, the effects of different GP treatments on the inactivation of natural microflora and Listeria monocytogenes, Salmonella Enteritidis and Escherichia coli on the surface of Fuji apples, soya sprouts and black pepper were evaluated. In particular the efficacy of the exposure to gas plasma was assessed immediately after treatments and during storage. Moreover, also possible changes in quality parameters such as colour, pH, Aw, moisture content, oxidation, polyphenol-oxidase activity, antioxidant activity were investigated. Since the lack of knowledge of cell targets of GP may limit its application, the possible mechanism of action of GP was studied against 2 strains of Listeria monocytogenes by evaluating modifications in the fatty acids of the cytoplasmic membrane (through GC/MS analysis) and metabolites detected by SPME-GC/MS and 1H-NMR analyses. Moreover, changes induced by different treatments on the expression of selected genes related to general stress response, virulence or to the metabolism were detected with Reverse Transcription-qPCR. In collaboration with the Scripps Research Institute (La Jolla, CA, USA) also proteomic profiles following gas plasma exposure were analysed through Multidimensional Protein Identification Technology (MudPIT) to evaluate possible changes in metabolic processes.
Resumo:
Nell’epoca di profonda transizione dell’era «pos-moderna», il modello tradizionale di legalità che conferisce al Parlamento il monopolio in materia penale entra in crisi in ragione della frammentazione delle fonti del diritto - a livello nazionale e sovranazionale - nonché delle spinte di globalizzazione capaci di incidere, ormai, ben oltre il mero piano economico. A fronte della incapacità del legislatore di rispondere in termini effettivi alla urgenza di razionalizzare e riformare il sistema penale, quindi, il potere giudiziario ha assunto una funzione di sostanziale supplenza, generando inevitabili attriti con il nullum crimen e i suoi corollari. Ne deriva che il Giudice di legittimità sempre più si preoccupa di assicurare la prevedibilità dei mutamenti interpretativi, specie se in malam partem, tenendo a mente gli ultimi approdi della giurisprudenza di Strasburgo in riferimento all’art. 7 CEDU. In particolare, tanto nelle motivazioni delle decisioni quanto nei contributi dottrinali, si diffonde graduale il riferimento a istituti propri del modello di common law: la recente riforma dell’art. 618, co 1 bis, c.p.p., del resto, è stata descritta a più voci come l’avvio della diffusione nell’ordinamento interno della c.d. “cultura del precedente”. In tale frangente, diviene utile approfondire l’opportunità dell’accostamento tra il modello di common law e di civil law, conducendo uno studio comparato tra i due ordinamenti quanto all’esercizio del potere punitivo che intende esaminare l’opportunità di acquisire rimedi propri della esperienza secolare del diritto judge-made in un ordinamento governato dalla soggezione del giudice alla legge.
Resumo:
Modern scientific discoveries are driven by an unsatisfiable demand for computational resources. High-Performance Computing (HPC) systems are an aggregation of computing power to deliver considerably higher performance than one typical desktop computer can provide, to solve large problems in science, engineering, or business. An HPC room in the datacenter is a complex controlled environment that hosts thousands of computing nodes that consume electrical power in the range of megawatts, which gets completely transformed into heat. Although a datacenter contains sophisticated cooling systems, our studies indicate quantitative evidence of thermal bottlenecks in real-life production workload, showing the presence of significant spatial and temporal thermal and power heterogeneity. Therefore minor thermal issues/anomalies can potentially start a chain of events that leads to an unbalance between the amount of heat generated by the computing nodes and the heat removed by the cooling system originating thermal hazards. Although thermal anomalies are rare events, anomaly detection/prediction in time is vital to avoid IT and facility equipment damage and outage of the datacenter, with severe societal and business losses. For this reason, automated approaches to detect thermal anomalies in datacenters have considerable potential. This thesis analyzed and characterized the power and thermal characteristics of a Tier0 datacenter (CINECA) during production and under abnormal thermal conditions. Then, a Deep Learning (DL)-powered thermal hazard prediction framework is proposed. The proposed models are validated against real thermal hazard events reported for the studied HPC cluster while in production. This thesis is the first empirical study of thermal anomaly detection and prediction techniques of a real large-scale HPC system to the best of my knowledge. For this thesis, I used a large-scale dataset, monitoring data of tens of thousands of sensors for around 24 months with a data collection rate of around 20 seconds.
Resumo:
Nello sport di alto livello l’uso della tecnologia ha raggiunto un ruolo di notevole importanza per l’analisi e la valutazione della prestazione. Negli ultimi anni sono emerse nuove tecnologie e sono migliorate quelle pre-esistenti (i.e. accelerometri, giroscopi e software per l’analisi video) in termini di campionamento, acquisizione dati, dimensione dei sensori che ha permesso la loro “indossabilità” e l’inserimento degli stessi all’interno degli attrezzi sportivi. La tecnologia è sempre stata al servizio degli atleti come strumento di supporto per raggiungere l’apice dei risultati sportivi. Per questo motivo la valutazione funzionale dell’atleta associata all’uso di tecnologie si pone lo scopo di valutare i miglioramenti degli atleti misurando la condizione fisica e/o la competenza tecnica di una determinata disciplina sportiva. L’obiettivo di questa tesi è studiare l’utilizzo delle applicazioni tecnologiche e individuare nuovi metodi di valutazione della performance in alcuni sport acquatici. La prima parte (capitoli 1-5), si concentra sulla tecnologia prototipale chiamata E-kayak e le varie applicazioni nel kayak di velocità. In questi lavori è stata verificata l’attendibilità dei dati forniti dal sistema E-kayak con i sistemi presenti in letteratura. Inoltre, sono stati indagati nuovi parametri utili a comprendere il modello di prestazione del paddler. La seconda parte (capitolo 6), si riferisce all’analisi cinematica della spinta verticale del pallanuotista, attraverso l’utilizzo della video analisi 2D, per l’individuazione delle relazioni Forza-velocità e Potenza-velocità direttamente in acqua. Questo studio pilota, potrà fornire indicazioni utili al monitoraggio e condizionamento di forza e potenza da svolgere direttamente in acqua. Infine la terza parte (capitoli 7-8), si focalizza sull’individuazione della sequenza di Fibonacci (sequenza divina) nel nuoto a stile libero e a farfalla. I risultati di questi studi suggeriscono che il ritmo di nuotata tenuto durante le medie/lunghe distanze gioca un ruolo chiave. Inoltre, il livello di autosomiglianza (self-similarity) aumenta con la tecnica del nuoto.
Resumo:
La disciplina del pareggio di bilancio è in continua evoluzione, soprattutto a fronte delle nuove esigenze finanziarie per contrastare la pandemia. Questo elaborato, studiando la governance economica strutturata dopo la crisi dei debiti, le derivanti scelte italiane in materia di costituzionalizzazione del pareggio di bilancio e le conseguenze sulle autonomie locali, dimostra come il sistema di gestione delle finanze pubbliche a livello comunitario si stia completando, generando un rapporto normativo ciclico tra il livello europeo e quello locale. Ne è emersa una conflittualità tra le Regioni e lo Stato, che è analizzata al fine di comprendere la giustiziabilità costituzionale del pareggio di bilancio, osservando le esigenze di bilanciamento tra l’equilibrio finanziario e la tutela dei diritti sociali. La Corte Costituzionale ha recentemente conferito, in via giurisprudenziale, alla Corte dei Conti la potestà di svolgere un controllo diretto di costituzionalità del rispetto dell’equilibrio di bilancio degli enti nazionali e territoriali. Particolare attenzione viene data, poi, a seguito degli effetti della pandemia da Covid-19 sui bilanci degli Stati. A fronte della crisi pandemica, per la prima volta dall’approvazione del TSCG, la Commissione ha attivato la clausola di salvaguardia generale per sospendere il Patto di Stabilità (c.d. escape clause). Questa clausola ha permesso ai Paesi di ricorrere agli scostamenti di bilancio. Viene infine analizzato il piano “Next Generation EU”, che centralizza i prestiti verso gli Stati membri nel bilancio dell’Unione ed attinge dal mercato dei capitali le risorse necessarie per finanziare un totale di 750 miliardi, attraverso l’emissione di obbligazioni “Eu Bills”. Per la prima volta nella storia, l’Unione, nelle parole della Commissione, agisce sui mercati come se fosse uno Stato. La portata straordinaria del NGEU, con l’emissione di titoli europei, porta ad una sostanziale mutualizzazione dei debiti ed appare come un passo fondamentale verso il completamento dell’UEM e di un sistema federale.
Resumo:
Long-term monitoring of acoustical environments is gaining popularity thanks to the relevant amount of scientific and engineering insights that it provides. The increasing interest is due to the constant growth of storage capacity and computational power to process large amounts of data. In this perspective, machine learning (ML) provides a broad family of data-driven statistical techniques to deal with large databases. Nowadays, the conventional praxis of sound level meter measurements limits the global description of a sound scene to an energetic point of view. The equivalent continuous level Leq represents the main metric to define an acoustic environment, indeed. Finer analyses involve the use of statistical levels. However, acoustic percentiles are based on temporal assumptions, which are not always reliable. A statistical approach, based on the study of the occurrences of sound pressure levels, would bring a different perspective to the analysis of long-term monitoring. Depicting a sound scene through the most probable sound pressure level, rather than portions of energy, brought more specific information about the activity carried out during the measurements. The statistical mode of the occurrences can capture typical behaviors of specific kinds of sound sources. The present work aims to propose an ML-based method to identify, separate and measure coexisting sound sources in real-world scenarios. It is based on long-term monitoring and is addressed to acousticians focused on the analysis of environmental noise in manifold contexts. The presented method is based on clustering analysis. Two algorithms, Gaussian Mixture Model and K-means clustering, represent the main core of a process to investigate different active spaces monitored through sound level meters. The procedure has been applied in two different contexts: university lecture halls and offices. The proposed method shows robust and reliable results in describing the acoustic scenario and it could represent an important analytical tool for acousticians.