858 resultados para Prime Event
Resumo:
Web is constantly evolving, thanks to the 2.0 transition, HTML5 new features and the coming of cloud-computing, the gap between Web and traditional desktop applications is tailing off. Web-apps are more and more widespread and bring several benefits compared to traditional ones. On the other hand reference technologies, JavaScript primarly, are not keeping pace, so a paradim shift is taking place in Web programming, and so many new languages and technologies are coming out. First objective of this thesis is to survey the reference and state-of-art technologies for client-side Web programming focusing in particular on what concerns concurrency and asynchronous programming. Taking into account the problems that affect existing technologies, we finally design simpAL-web, an innovative approach to tackle Web-apps development, based on the Agent-oriented programming abstraction and the simpAL language. == Versione in italiano: Il Web è in continua evoluzione, grazie alla transizione verso il 2.0, alle nuove funzionalità introdotte con HTML5 ed all’avvento del cloud-computing, il divario tra le applicazioni Web e quelle desktop tradizionali va assottigliandosi. Le Web-apps sono sempre più diffuse e presentano diversi vantaggi rispetto a quelle tradizionali. D’altra parte le tecnologie di riferimento, JavaScript in primis, non stanno tenendo il passo, motivo per cui la programmazione Web sta andando incontro ad un cambio di paradigma e nuovi linguaggi e tecnologie stanno spuntando sempre più numerosi. Primo obiettivo di questa tesi è di passare al vaglio le tecnologie di riferimento ed allo stato dell’arte per quel che riguarda la programmmazione Web client-side, porgendo particolare attenzione agli aspetti inerenti la concorrenza e la programmazione asincrona. Considerando i principali problemi di cui soffrono le attuali tecnologie passeremo infine alla progettazione di simpAL-web, un approccio innovativo con cui affrontare lo sviluppo di Web-apps basato sulla programmazione orientata agli Agenti e sul linguaggio simpAL.
Resumo:
The present work is part of a larger project aimed at obtaining compounds of industrial interest from renewable sources. The work is particularly aimed to investigate the reactivity of 2,5-bis-hydroxymethylfuran (BHMF), an important building block of organic nature easily obtainable from biomass, with acid catalysis. Through the study of the reactivity of BHMF in water, in the presence of an heterogeneous acid catalyst (Amberlyst 15), has been developed a new synthetic method for the preparation of α-6-hydroxy-6-methyl-4-enyl-2H-pyran-3-one a derivative whose molecular skeleton is similar to that of natural products which are used in pharmaceutical chemistry. The product is obtained in milder conditions and with better selectivity with respect to the strongly oxidizing conditions with which it is prepared in the literature starting from different precursors containing furan ring.
Resumo:
Il recupero dei materiali di scarto è un aspetto di grande attualità in campo stradale, così come negli altri ambiti dell’ingegneria civile. L’attenzione della ricerca e degli esperti del settore è rivolta all’affinamento di tecniche di riciclaggio che riducano l’impatto ambientale senza compromettere le prestazioni meccaniche finali. Tali indagini cercano di far corrispondere le necessità di smaltimento dei rifiuti con quelle dell’industria infrastrutturale, legate al reperimento di materiali da costruzione tecnicamente idonei ed economicamente vantaggiosi. Attualmente sono già diversi i tipi di prodotti rigenerati e riutilizzati nella realizzazione delle pavimentazioni stradali e numerosi sono anche quelli di nuova introduzione in fase di sperimentazione. In particolare, accanto ai materiali derivanti dalle operazioni di recupero della rete viaria, è opportuno considerare anche quelli provenienti dall’esercizio delle attività di trasporto, il quale comporta ogni anno il raggiungimento della fine della vita utile per centinaia di migliaia di tonnellate di pneumatici di gomma. L’obiettivo della presente analisi sperimentale è quello di fornire indicazioni e informazioni in merito alla tecnica di riciclaggio a freddo con emulsione bituminosa e cemento, valutando la possibilità di applicazione di tale metodologia in combinazione con il polverino di gomma, ottenuto dal recupero degli pneumatici fuori uso (PFU). La ricerca si distingue per una duplice valenza: la prima è quella di promuovere ulteriormente la tecnica di riciclaggio a freddo, che si sta imponendo per i suoi numerosi vantaggi economici ed ambientali, legati soprattutto alla temperatura d’esercizio; la seconda è quella di sperimentare l’utilizzo del polverino di gomma, nelle due forme di granulazione tradizionale e criogenica, additivato a miscele costituite interamente da materiale proveniente da scarifica di pavimentazioni esistenti e stabilizzate con diverse percentuali di emulsione di bitume e di legante cementizio.
Resumo:
The main goal of this thesis is to facilitate the process of industrial automated systems development applying formal methods to ensure the reliability of systems. A new formulation of distributed diagnosability problem in terms of Discrete Event Systems theory and automata framework is presented, which is then used to enforce the desired property of the system, rather then just verifying it. This approach tackles the state explosion problem with modeling patterns and new algorithms, aimed for verification of diagnosability property in the context of the distributed diagnosability problem. The concepts are validated with a newly developed software tool.
Resumo:
Si indaga il ruolo delle tecnologie verdi all'interno del contesto urbano, in particolare gli effetti delle infrastrutture verdi sulla regimazione idrica e l'isola di calore. Si sono implementati substrati estensivi alleggeriti sostenibili tramite materie secondarie, che costituiscono un vantaggio economico e strutturale, oltre che di riciclo di scarti da filiere produttive, mantenendo intatta la crescita delle piante
Resumo:
Il progetto Eye-Trauma si colloca all'interno dello sviluppo di un simulatore chirurgico per traumi alla zona oculare, sviluppato in collaborazione con Simulation Group in Boston, Harvard Medical School e Massachusetts General Hospital. Il simulatore presenta un busto in silicone fornito di moduli intercambiabili della zona oculare, per simulare diversi tipi di trauma. L'utilizzatore è chiamato ad eseguire la procedura medica di saturazione tramite degli strumenti chirurgici su cui sono installati dei sensori di forza e di apertura. I dati collezionati vengono utilizzati all'interno del software per il riconoscimento dei gesti e il controllo real-time della performance. L'algoritmo di gesture recognition, da me sviluppato, si basa sul concetto di macchine a stati; la transizione tra gli stati avviene in base agli eventi rilevati dal simulatore.
Resumo:
La presente tesi tratta delle attività riproduttive e delle prime fasi di crescita dello squalo Chiloscyllium punctatum. Da Dicembre 2013 a Giugno 2014, all’Acquario di Cattolica, sono state effettuate osservazioni su una coppia di adulti riproduttori e sui relativi neonati mantenuti in ambiente controllato. Il Chiloscyllium punctatum è una specie ovipara che rilascia uova di forma rettangolare, ha un ciclo riproduttivo relativamente rapido ed è molto sfruttata come specie ornamentale dagli acquari di tutto il mondo. Per ottenere una corretta gestione in ambiente controllato, la riproduzione ed estrapolare il maggior numero d’informazioni certe su gli stadi di vita, sulla dieta di divezzamento dei neonati dal sacco vitellino, sull’illuminazione più consona da adottare, sulle dimensioni medie di uova, nascituri e adulti, sulla crescita dei nascituri, sui tempi di sviluppo embrionale, sulla frequenza di deposizione delle uova e sui tempi di schiusa è stato necessario sviluppare un corretta procedura di gestione ordinaria. In 7 mesi, gli adulti di C. punctatum, in condizioni ambientali ottimali e costanti, hanno dato vita a 33 neonati. Questi sono stati sottoposti a misurazioni di lunghezza (LT, cm) e peso corporeo (PC, g) per valutare l’influenza dell’illuminamento e della dieta sulla crescita. Inoltre, sono stati confrontati dati sperimentali (e.g. tempistiche di sviluppo embrionale) con dati bibliografici (Haraush et al., 2007) che hanno evidenziato alcune similitudini e differenze.
Resumo:
MATERIALI E METODI: Tra il 2012 e il 2013, abbiamo analizzato in uno studio prospettico i dati di 48 pazienti sottoposti a ThuLEP con approccio autodidatta. I pazienti sono stati rivalutati a 3, 6, 12 e 24 mesi con la valutazione del PSA, il residuo post-minzionale (RPM), l'uroflussometria (Qmax), l'ecografia transrettale e questionari validati (IPSS: international prostate symptom score e QoL: quality of life) RISULTATI: Il volume medio della prostata è di 63 ± 5,3 ml. Il tempo operatorio medio è stato di 127,58 ± 28.50 minuti. Il peso medio del tessuto asportato è stato di 30,40 ± 13,90 gr. A 6 mesi dopo l'intervento l'RPM medio è diminuito da 165,13 ± 80,15 ml a 7,78 ± 29.19 ml, mentre il Qmax medio è aumentato da 5.75 ± 1.67ml / s a 18.1 ± 5.27 ml / s. I valori medi dei IPSS e QoL hanno dimostrato un progressivo miglioramento: da 19.15 (IQR: 2-31) e 4 (IQR: 1-6) nel preoperatorio a 6.04 (IQR: 1-20) e 1.13 (IQR: 1-4), rispettivamente. Durante la curva di apprendimento si è assistito ad un progressivo aumento del peso del tessuto enucleato e ad una progressiva riduzione del tempo di ospedalizzazione e di cateterismo. Tra le principali complicanze ricordiamo un tasso di incontinenza transitoria del 12,5% a 3 mesi e del 2.1% a 12 mesi. CONCLUSIONI: ThuLEP rappresenta una tecnica chirurgica efficace, sicura e riproducibile indipendentemente dalle dimensioni della prostata. I nostri dati suggeriscono che la ThuLEP offre un miglioramento significativo dei parametri funzionali comparabili con le tecniche tradizionali, nonostante una lunga curva di apprendimento.
Resumo:
Data sets describing the state of the earth's atmosphere are of great importance in the atmospheric sciences. Over the last decades, the quality and sheer amount of the available data increased significantly, resulting in a rising demand for new tools capable of handling and analysing these large, multidimensional sets of atmospheric data. The interdisciplinary work presented in this thesis covers the development and the application of practical software tools and efficient algorithms from the field of computer science, aiming at the goal of enabling atmospheric scientists to analyse and to gain new insights from these large data sets. For this purpose, our tools combine novel techniques with well-established methods from different areas such as scientific visualization and data segmentation. In this thesis, three practical tools are presented. Two of these tools are software systems (Insight and IWAL) for different types of processing and interactive visualization of data, the third tool is an efficient algorithm for data segmentation implemented as part of Insight.Insight is a toolkit for the interactive, three-dimensional visualization and processing of large sets of atmospheric data, originally developed as a testing environment for the novel segmentation algorithm. It provides a dynamic system for combining at runtime data from different sources, a variety of different data processing algorithms, and several visualization techniques. Its modular architecture and flexible scripting support led to additional applications of the software, from which two examples are presented: the usage of Insight as a WMS (web map service) server, and the automatic production of a sequence of images for the visualization of cyclone simulations. The core application of Insight is the provision of the novel segmentation algorithm for the efficient detection and tracking of 3D features in large sets of atmospheric data, as well as for the precise localization of the occurring genesis, lysis, merging and splitting events. Data segmentation usually leads to a significant reduction of the size of the considered data. This enables a practical visualization of the data, statistical analyses of the features and their events, and the manual or automatic detection of interesting situations for subsequent detailed investigation. The concepts of the novel algorithm, its technical realization, and several extensions for avoiding under- and over-segmentation are discussed. As example applications, this thesis covers the setup and the results of the segmentation of upper-tropospheric jet streams and cyclones as full 3D objects. Finally, IWAL is presented, which is a web application for providing an easy interactive access to meteorological data visualizations, primarily aimed at students. As a web application, the needs to retrieve all input data sets and to install and handle complex visualization tools on a local machine are avoided. The main challenge in the provision of customizable visualizations to large numbers of simultaneous users was to find an acceptable trade-off between the available visualization options and the performance of the application. Besides the implementational details, benchmarks and the results of a user survey are presented.
Resumo:
In this thesis, the main Executive Control theories are exposed. Methods typical of Cognitive and Computational Neuroscience are introduced and the role of behavioural tasks involving conflict resolution in the response elaboration, after the presentation of a stimulus to the subject, are highlighted. In particular, the Eriksen Flanker Task and its variants are discussed. Behavioural data, from scientific literature, are illustrated in terms of response times and error rates. During experimental behavioural tasks, EEG is registered simultaneously. Thanks to this, event related potential, related with the current task, can be studied. Different theories regarding relevant event related potential in this field - such as N2, fERN (feedback Error Related Negativity) and ERN (Error Related Negativity) – are introduced. The aim of this thesis is to understand and simulate processes regarding Executive Control, including performance improvement, error detection mechanisms, post error adjustments and the role of selective attention, with the help of an original neural network model. The network described here has been built with the purpose to simulate behavioural results of a four choice Eriksen Flanker Task. Model results show that the neural network can simulate response times, error rates and event related potentials quite well. Finally, results are compared with behavioural data and discussed in light of the mentioned Executive Control theories. Future perspective for this new model are outlined.
Resumo:
Quando si parla di architetture di controllo in ambito Web, il Modello ad Eventi è indubbiamente quello più diffuso e adottato. L’asincronicità e l’elevata interazione con l’utente sono caratteristiche tipiche delle Web Applications, ed un architettura ad eventi, grazie all’adozione del suo tipico ciclo di controllo chiamato Event Loop, fornisce un'astrazione semplice ma sufficientemente espressiva per soddisfare tali requisiti. La crescita di Internet e delle tecnologie ad esso associate, assieme alle recenti conquiste in ambito di CPU multi-core, ha fornito terreno fertile per lo sviluppo di Web Applications sempre più complesse. Questo aumento di complessità ha portato però alla luce alcuni limiti del modello ad eventi, ancora oggi non del tutto risolti. Con questo lavoro si intende proporre un differente approccio a questa tipologia di problemi, che superi i limiti riscontrati nel modello ad eventi proponendo un architettura diversa, nata in ambito di IA ma che sta guadagno popolarità anche nel general-purpose: il Modello ad Agenti. Le architetture ad agenti adottano un ciclo di controllo simile all’Event Loop del modello ad eventi, ma con alcune profonde differenze: il Control Loop. Lo scopo di questa tesi sarà dunque approfondire le due tipologie di architetture evidenziandone le differenze, mostrando cosa significa affrontare un progetto e lo sviluppo di una Web Applications avendo tecnologie diverse con differenti cicli di controllo, mettendo in luce pregi e difetti dei due approcci.
Resumo:
In this thesis we present techniques that can be used to speed up the calculation of perturbative matrix elements for observables with many legs ($n = 3, 4, 5, 6, 7, ldots$). We investigate several ways to achieve this, including the use of Monte Carlo methods, the leading-color approximation, numerically less precise but faster operations, and SSE-vectorization. An important idea is the use of enquote{random polarizations} for which we derive subtraction terms for the real corrections in next-to-leading order calculations. We present the effectiveness of all these methods in the context of electron-positron scattering to $n$ jets, $n$ ranging from two to seven.
Resumo:
Die Quantenchromodynamik ist die zugrundeliegende Theorie der starken Wechselwirkung und kann in zwei Bereiche aufgeteilt werden. Harte Streuprozesse, wie zum Beispiel die Zwei-Jet-Produktion bei hohen invarianten Massen, können störungstheoretisch behandelt und berechnet werden. Bei Streuprozessen mit niedrigen Impulsüberträgen hingegen ist die Störungstheorie nicht mehr anwendbar und phänemenologische Modelle werden für Vorhersagen benutzt. Das ATLAS Experiment am Large Hadron Collider am CERN ermöglicht es, QCD Prozesse bei hohen sowie niedrigen Impulsüberträgen zu untersuchen. In dieser Arbeit werden zwei Analysen vorgestellt, die jeweils ihren Schwerpunkt auf einen der beiden Regime der QCD legen:rnDie Messung von Ereignisformvariablen bei inelastischen Proton--Proton Ereignissen bei einer Schwerpunktsenergie von $sqrt{s} = unit{7}{TeV}$ misst den transversalen Energiefluss in hadronischen Ereignissen. rnDie Messung des zweifachdifferentiellen Zwei-Jet-Wirkungsquerschnittes als Funktion der invarianten Masse sowie der Rapiditätsdifferenz der beiden Jets mit den höchsten Transversalimpulsen kann genutzt werden um Theorievorhersagen zu überprüfen. Proton--Proton Kollisionen bei $sqrt{s} = unit{8}{TeV}$, welche während der Datennahme im Jahr 2012 aufgezeichnet wurden, entsprechend einer integrierten Luminosität von $unit{20.3}{fb^{-1}}$, wurden analysiert.rn
Resumo:
Si è calcolata la percentuale di metalli rimossi (R%) da fly ash e scarti industriali ceramici sottoposti a vari tipi di leaching con acqua deionizzata, acido solforico (pH1), attacco alcalino (pH14) e trattamento combinato acido-alcalino. Il parametro R è molto importante perché è in grado di fornire un’indicazione riguardo l’effettiva efficacia di un tipo di leaching rispetto ad un altro. Così facendo è possibile valutare la reale fattibilità del recupero di materie prime critiche (secondo la Commissione Europea) da questi rifiuti. Per quanto riguarda il recupero da fly ash, il trattamento con leaching acido si dimostra il più valido per numero di elementi e percentuale di recupero. Tuttavia, anche se il leaching combinato per certi aspetti può sembrare migliore, bisogna anche considerare i costi di lavorazione, che in questo caso aumenterebbero sensibilmente. Per quanto riguarda gli scarti ceramici, è il leaching combinato a mostrare il miglior potenziale di rimozione dei metalli critici, sia in termini di percentuali che per il numero di elementi rimossi.