971 resultados para Guicciardini, Francesco.
Resumo:
Web is constantly evolving, thanks to the 2.0 transition, HTML5 new features and the coming of cloud-computing, the gap between Web and traditional desktop applications is tailing off. Web-apps are more and more widespread and bring several benefits compared to traditional ones. On the other hand reference technologies, JavaScript primarly, are not keeping pace, so a paradim shift is taking place in Web programming, and so many new languages and technologies are coming out. First objective of this thesis is to survey the reference and state-of-art technologies for client-side Web programming focusing in particular on what concerns concurrency and asynchronous programming. Taking into account the problems that affect existing technologies, we finally design simpAL-web, an innovative approach to tackle Web-apps development, based on the Agent-oriented programming abstraction and the simpAL language. == Versione in italiano: Il Web è in continua evoluzione, grazie alla transizione verso il 2.0, alle nuove funzionalità introdotte con HTML5 ed all’avvento del cloud-computing, il divario tra le applicazioni Web e quelle desktop tradizionali va assottigliandosi. Le Web-apps sono sempre più diffuse e presentano diversi vantaggi rispetto a quelle tradizionali. D’altra parte le tecnologie di riferimento, JavaScript in primis, non stanno tenendo il passo, motivo per cui la programmazione Web sta andando incontro ad un cambio di paradigma e nuovi linguaggi e tecnologie stanno spuntando sempre più numerosi. Primo obiettivo di questa tesi è di passare al vaglio le tecnologie di riferimento ed allo stato dell’arte per quel che riguarda la programmmazione Web client-side, porgendo particolare attenzione agli aspetti inerenti la concorrenza e la programmazione asincrona. Considerando i principali problemi di cui soffrono le attuali tecnologie passeremo infine alla progettazione di simpAL-web, un approccio innovativo con cui affrontare lo sviluppo di Web-apps basato sulla programmazione orientata agli Agenti e sul linguaggio simpAL.
Resumo:
Next generation electronic devices have to guarantee high performance while being less power-consuming and highly reliable for several application domains ranging from the entertainment to the business. In this context, multicore platforms have proven the most efficient design choice but new challenges have to be faced. The ever-increasing miniaturization of the components produces unexpected variations on technological parameters and wear-out characterized by soft and hard errors. Even though hardware techniques, which lend themselves to be applied at design time, have been studied with the objective to mitigate these effects, they are not sufficient; thus software adaptive techniques are necessary. In this thesis we focus on multicore task allocation strategies to minimize the energy consumption while meeting performance constraints. We firstly devise a technique based on an Integer Linear Problem formulation which provides the optimal solution but cannot be applied on-line since the algorithm it needs is time-demanding; then we propose a sub-optimal technique based on two steps which can be applied on-line. We demonstrate the effectiveness of the latter solution through an exhaustive comparison against the optimal solution, state-of-the-art policies, and variability-agnostic task allocations by running multimedia applications on the virtual prototype of a next generation industrial multicore platform. We also face the problem of the performance and lifetime degradation. We firstly focus on embedded multicore platforms and propose an idleness distribution policy that increases core expected lifetimes by duty cycling their activity; then, we investigate the use of micro thermoelectrical coolers in general-purpose multicore processors to control the temperature of the cores at runtime with the objective of meeting lifetime constraints without performance loss.
Resumo:
La realizzazione di questa ricerca ha come obiettivo principe lo studio approfondito dell’istituto della riabilitazione penale all’interno del panorama legislativo italiano, con riferimento al contesto bolognese, e nella legislazione belga; inoltre si pone come scopo l’analisi dell’interazione autore-vittima del reato, con una particolare attenzione al risarcimento elargito alla persona offesa dal reato e alla figura della vittima prima nel sistema penale, poi nel procedimento specifico che porta alla riabilitazione del condannato. Il punto di partenza del lavoro di ricerca intrapreso è costituito da un’accurata ricerca bibliografica inerente agli argomenti trattati, al fine di poter approfondire una buona parte della letteratura italiana e belga esistente in materia. La fase successiva della ricerca è stata quella di reperire informazioni riguardanti l’ambito di studio da approfondire, cioè la riabilitazione, secondo una direttrice empirica. Pertanto, per quanto concerne la realtà italiana, sono stati analizzati, tramite una griglia di rilevazione costruita ad hoc, i fascicoli processuali relativi alla riabilitazione presenti negli archivi del Tribunale di Sorveglianza di Bologna (2004-2009); la situazione belga è invece stata studiata reperendo dati, riferiti alla réhabilitation pénal, rintracciati presso il “Service Public Fédéral Justice - Bureau Permanent Statistiques et Mesure de la charge de travail (BPSM)” (2008-2009), sia livello nazionale che delle cinque Corti di appello. Inoltre, al fine di ottenere un ulteriore punto di vista empirico riguardante l’istituto della riabilitazione penale, sono state effettuate delle interviste semi-strutturate al Presidente del Tribunale di Sorveglianza Dott. Francesco Maisto e al Sostituto Procuratore Generale di Liège Mr. Nicolas Banneux. Infatti l’esperienza lavorativa e il particolare ruolo ricoperto da questi “osservatori privilegiati”, competenti di riabilitazione e particolarmente sensibili alle tematiche criminologiche e vittimologiche, li pone direttamente in contatto con l’istituto e la procedura della riabilitazione, determinando in loro una profonda padronanza dell’oggetto di ricerca.
Resumo:
Negli ultimi anni la ricerca ha fatto grandi passi avanti riguardo ai metodi di progetto e realizzazione delle strutture portanti degli edifici, a tal punto da renderle fortemente sicure sotto tutti i punti di vista. La nuova frontiera della ricerca sta quindi virando su aspetti che non erano mai stati in primo piano finora: gli elementi non-strutturali. Considerati fino ad oggi semplicemente carico accessorio, ci si rende sempre più conto della loro capacità di influire sui comportamenti delle strutture e sulla sicurezza di chi le occupa. Da qui nasce l’esigenza di questo grande progetto chiamato BNCs (Building Non-structural Component System), ideato dall’Università della California - San Diego e sponsorizzato dalle maggiori industrie impegnate nel campo delle costruzioni. Questo progetto, a cui ho preso parte, ha effettuato test su tavola vibrante di un edificio di cinque piani in scala reale, completamente arredato ed allestito dei più svariati elementi non-strutturali. Lo scopo della tesi in questione, ovviamente, riguarda l’identificazione strutturale e la verifica della sicurezza di uno di questi elementi non-strutturali: precisamente la torre di raffreddamento posta sul tetto dell’edificio (del peso di circa 3 tonnellate). Partendo da una verifica delle regole e calcoli di progetto, si è passato ad una fase di test sismici ed ispezioni post-test della torre stessa, infine tramite l’analisi dei dati raccolti durante i test e si è arrivati alla stesura di conclusioni.
Resumo:
Relazione tecnica e funzionale, con rimandi teorici disciplinari, riguardo la realizzazione di un sistema informatico su piattaforma Microsoft per l'organizzazione e la fruizione delle informazioni di Ciclo attivo in un'azienda di servizi di grandi dimensioni.
Resumo:
Scopo del nostro studio è quello di valutare i disturbi cognitivi in relazione al tasso di microembolia cerebrale in due gruppi di pazienti trattati per lesione carotidea asintomatica con endoarterectomia (CEA) o stenting (CAS). Comparando le due metodiche mediante l’utilizzo di risonanza magnetica in diffusione (DW-MRI), neuromarkers (NSE e S100β) e test neuropsicometrici. MATERIALE E METODI: 60 pazienti sono stati sottoposti a rivascolarizzazione carotidea (CEA n=32 e CAS n=28). Sono stati tutti valutati con DW-MRI e Mini-Mental State Examination (MMSE) test nel preoperatorio, a 24 ore, a 6 ed a 12 mesi dall’intervento. In tutti sono stati dosati i livelli sierici di NSE e S100β mediante 5 prelievi seriati nel tempo, quello basale nel preoperatorio, l’ultimo a 24 ore. L’ananlisi statistica è stata effettuata con test t di Student per confronti multipli per valori continui e con test χ2 quadro e Fisher per le variabili categoriche. Significatività P <0,05. RISULTATI: Non vi è stato alcun decesso. Un paziente del gruppo CAS ha presentato un ictus ischemico. In 6 pazienti CAS ed in 1 paziente CEA si sono osservate nuove lesioni subcliniche alla RMN-DWI post-operatoria (21,4% vs 3% p=0,03). Nel gruppo CAS le nuove lesioni presenti alla RMN sono risultate significativamente associate ad un declino del punteggio del MMSE (p=0,001). L’analisi dei livelli di NSE e S100β ha mostrato un significativo aumento a 24 ore nei pazienti CAS (P = .02). A 12 mesi i pazienti che avevano presentato nuove lesioni ischemiche nel post-operatorio hanno mostrato minor punteggio al MMSE, non statisticamente significativo. CONCLUSIONI: I neuromarkers in combinazione con MMSE e RMN-DWI possono essere utilizzati nella valutazione del declino cognitivo correlato a lesioni silenti nell’immediato postoperatorio di rivascolarizzazione carotidea. Quest’ultime dovrebbero essere valutate quindi non solo rispetto al tasso di mortalità e ictus, ma anche rispetto al tasso di microembolia.
Resumo:
Flood disasters are a major cause of fatalities and economic losses, and several studies indicate that global flood risk is currently increasing. In order to reduce and mitigate the impact of river flood disasters, the current trend is to integrate existing structural defences with non structural measures. This calls for a wider application of advanced hydraulic models for flood hazard and risk mapping, engineering design, and flood forecasting systems. Within this framework, two different hydraulic models for large scale analysis of flood events have been developed. The two models, named CA2D and IFD-GGA, adopt an integrated approach based on the diffusive shallow water equations and a simplified finite volume scheme. The models are also designed for massive code parallelization, which has a key importance in reducing run times in large scale and high-detail applications. The two models were first applied to several numerical cases, to test the reliability and accuracy of different model versions. Then, the most effective versions were applied to different real flood events and flood scenarios. The IFD-GGA model showed serious problems that prevented further applications. On the contrary, the CA2D model proved to be fast and robust, and able to reproduce 1D and 2D flow processes in terms of water depth and velocity. In most applications the accuracy of model results was good and adequate to large scale analysis. Where complex flow processes occurred local errors were observed, due to the model approximations. However, they did not compromise the correct representation of overall flow processes. In conclusion, the CA model can be a valuable tool for the simulation of a wide range of flood event types, including lowland and flash flood events.
Resumo:
L’utilizzo del reservoir geotermico superficiale a scopi termici / frigoriferi è una tecnica consolidata che permette di sfruttare, tramite appositi “geoscambiatori”, un’energia presente ovunque ed inesauribile, ad un ridotto prezzo in termini di emissioni climalteranti. Pertanto, il pieno sfruttamento di questa risorsa è in linea con gli obiettivi del Protocollo di Kyoto ed è descritto nella Direttiva Europea 2009/28/CE (Comunemente detta: Direttiva Rinnovabili). Considerato il notevole potenziale a fronte di costi sostenibili di installazione ed esercizio, la geotermia superficiale è stata sfruttata già dalla metà del ventesimo secolo in diversi contesti (geografici, geologici e climatici) e per diverse applicazioni (residenziali, commerciali, industriali, infrastrutturali). Ciononostante, solo a partire dagli anni 2000 la comunità scientifica e il mercato si sono realmente interessati ed affacciati all’argomento, a seguito di sopraggiunte condizioni economiche e tecniche. Una semplice ed immediata dimostrazione di ciò si ritrova nel fatto che al 2012 non esiste ancora un chiaro riferimento tecnico condiviso a livello internazionale, né per la progettazione, né per l’installazione, né per il testing delle diverse applicazioni della geotermia superficiale, questo a fronte di una moltitudine di articoli scientifici pubblicati, impianti realizzati ed associazioni di categoria coinvolte nel primo decennio del ventunesimo secolo. Il presente lavoro di ricerca si colloca all’interno di questo quadro. In particolare verranno mostrati i progressi della ricerca svolta all’interno del Dipartimento di Ingegneria Civile, Ambientale e dei Materiali nei settori della progettazione e del testing dei sistemi geotermici, nonché verranno descritte alcune tipologie di geoscambiatori innovative studiate, analizzate e testate nel periodo di ricerca.
Resumo:
La tesi vuole verificare se il metodo dell'apprendimento cooperativo può essere utilizzato per facilitare l'inclusione di studenti con DSA.