362 resultados para Carabellese, Felice
Resumo:
L’elaborato si propone di esaminare le tappe principali della formazione intellettuale di Ezio Raimondi (Lizzano in Belvedere, 22 marzo 1924 – Bologna, 18 marzo 2014). Dopo aver illustrato i riflessi dei maestri (Lorenzo Bianchi, Franco Serra, Roberto Longhi, Carlo Calcaterra) nella produzione critica dello studioso, il nostro lavoro, grazie al materiale archivistico dell’Accademia della Crusca, ha tentato di ricostruire da una parte le dinamiche del dialogo instaurato da Ezio Raimondi con Gianfranco Contini, Giorgio Pasquali e Francesco Pagliai, e dall’altra i criteri ecdotici e filologici fissati nell’edizione critica dei Dialoghi di Torquato Tasso (1958). La lunga consuetudine con uno dei massimi poeti nostri, e con un testo di grande rilievo nella storia della cultura nell’età della Controriforma, offrì al giovane studioso la prospettiva più felice, e insieme un saldo fondamento filologico e storico, all’interesse che era venuto crescendo in lui per il Manierismo. Con il sostegno dei documenti del Fondo Riccardo Ricciardi editore, conservati al Centro Apice di Milano, non è sembrato inopportuno discutere, tramite il carteggio tra Ezio Raimondi e Gianni Antonini, le ‘scelte di canone’ dell’antologia Trattatisti e narratori del Seicento (1960). L’analisi della corrispondenza tra Charles Singleton ed Ezio Raimondi si è rivelata, invece, particolarmente stimolante per avanzare qualche proposta interpretativa sulla critica simbolica, della quale lo studioso fu uno dei maggiori promotori. La tesi si conclude con un’Appendice, in cui compare, per la prima volta, un elenco provvisorio del materiale documentario allegato ai libri del professore, da noi inventariato dopo che l’archivio culturale Ezio Raimondi è stato donato dagli eredi dello studioso alla biblioteca del Dipartimento di Filologia Classica e Italianistica dell’Università di Bologna.
Resumo:
Sviluppo di una piattaforma software per l'estrazione e l'analisi dei dati dalle pagine Facebook ufficiali del turismo delle regioni italiane, per lo studio dell'andamento delle promozioni turistiche.
Resumo:
Riqualificare gli spazi dimenticati della periferia bolognese significa confrontarsi con problematiche cittadine fino ad ora mai affrontate.L’area militare di Santa Viola rappresenta in pieno questa situazione e racchiude al suo interno un contesto completamente distaccato dal resto del quartiere, cristallizzato nel tempo a causa del suo muro di recinzione; intervenire in un contesto così distaccato dal contesto rappresenta una sfida per chiunque ci si voglia avvicinare. Le recenti proteste contro il disboscamento dell’area ovest dei Prati di Caprara e l’urbanizzazione intensiva di quest’ultima hanno fornito spunti importanti su quale fosse la strada migliore da perseguire. Il progetto propone la realizzazione di un nuovo complesso pubblico che diventi portavoce della relazione, al giorno d’oggi frammentato, fra centro abitato e le aree verdi che lo circondano, e lo fa attraverso una rete di percorsi ciclopedonali semplici, in stretta connessione con i nuovi sistemi di mobilità pubblica, in particolare la tramvia e la stazione ferroviaria previsti dal PUMS di Bologna. Col fine di portare nuova linfa vitale al quartiere, l’area diventerà un nuovo polmone verde fruibile dalla cittadinanza, ospitando al suo interno la nuova scuola di Design ed il museo della memoria per la strage del 2 agosto. Il grande spazio di carattere pubblico genera un corridoio verde che parte del parco fluviale e giunge in prossimità di Porta San Felice, congiungendo sia idealmente che fisicamente il nuovo polo attrattore del quartiere a quelli già presenti in zona: la fondazione MAST e l’Opificio Golinelli.Insieme collaborano per restituire una nuova immagine al quartiere Santa Viola, culturalmente attiva e strattamente connessa alla città storica.
Resumo:
La ricerca di tesi qui presentata nasce con lo scopo di sondare la natura degli oggetti affettivi attraverso l’analisi dei lavori di campo da me svolti tra il 2016 e il 2019: il lavoro di campo all’interno dei Musei degli oggetti ordinari di Marseille e Parma (ricerca in ambiente museale) ed il lavoro di campo condotto all’interno di 28 abitazioni dell’Emilia Romagna (ricerca in ambiente domestico) comprendente un confronto generazionale tra sessantenni e trentenni. In particolare, con il lavoro qui presentato ho voluto cercare di comprendere, per mezzo di un’attenta analisi del legame uomo / cosa, la natura del rapporto che gl’individui tessono con le diverse dimensioni temporali della loro vita: passato, presente, futuro. La mia ricerca di tesi nasce difatti dal presupposto che gli oggetti affettivi (qui definiti “oggetti della nostalgia”) si inscrivono nella storia dei loro proprietari, essi evocano memorie, ricordi, ma anche valori e modi di vivere / di essere. Gli oggetti affettivi essendo in grado di preservare nel tempo una loro “funzionalità”, finiscono per preservare nella loro valenza simbolica ed affettiva frammenti di memorie in grado di orientare i loro proprietari nell’elaborazione del passato, ma anche di aiutarli nella creazione di un tempo presente e futuro sempre più felice e consapevole. Essi, in virtù del legame che li unisce intimamente ai loro proprietari, mantengono in vita ciò che apparentemente non esiste più, preservano l’assente nella loro presenza coniugando l’invisibile al visibile, l’immaterialità alla materia.
Resumo:
The topic of seismic loss assessment not only incorporates many aspects of the earthquake engineering, but also entails social factors, public policies and business interests. Because of its multidisciplinary character, this process may be complex to challenge, and sound discouraging to neophytes. In this context, there is an increasing need of deriving simplified methodologies to streamline the process and provide tools for decision-makers and practitioners. This dissertation investigates different possible applications both in the area of modelling of seismic losses, both in the analysis of observational seismic data. Regarding the first topic, the PRESSAFE-disp method is proposed for the fast evaluation of the fragility curves of precast reinforced-concrete (RC) structures. Hence, a direct application of the method to the productive area of San Felice is studied to assess the number of collapses under a specific seismic scenario. In particular, with reference to the 2012 events, two large-scale stochastic models are outlined. The outcomes of the framework are promising, in good agreement with the observed damage scenario. Furthermore, a simplified displacement-based methodology is outlined to estimate different loss performance metrics for the decision-making phase of the seismic retrofit of a single RC building. The aim is to evaluate the seismic performance of different retrofit options, for a comparative analysis of their effectiveness and the convenience. Finally, a contribution to the analysis of the observational data is presented in the last part of the dissertation. A specific database of losses of precast RC buildings damaged by the 2012 Earthquake is created. A statistical analysis is performed, allowing deriving several consequence functions. The outcomes presented may be implemented in probabilistic seismic risk assessments to forecast the losses at the large scale. Furthermore, these may be adopted to establish retrofit policies to prevent and reduce the consequences of future earthquakes in industrial areas.
Resumo:
Since the turn of the century, fisheries have maintained a steady growth rate, while aquaculture has experienced a more rapid expansion. Aquaculture can offer EU consumers more diverse, healthy, and sustainable food options, some of which are more popular elsewhere. To develop the sector, the EU is investing heavily. The EU supports innovative projects that promote the sustainable development of seafood sectors and food security. Priority 3 promotes sector development through innovation dissemination. This doctoral dissertation examined innovation transfer in the Italian aquaculture sector, specifically the adoption of innovative tools, using a theoretical model to better understand the complexity of these processes. The work focused on innovation adoption, emphasising that it is the end of a well-defined process. The Awareness Knowledge Adoption Implementation Effectiveness (AKAIE) model was created to better analyse post-adoption phases and evaluate technology adoption implementation and impact. To identify AKAIE drivers and barriers, aquaculture actors were consulted. "Perceived complexity"—barriers to adoption that are strongly influenced by contextual factors—has been used to examine their perspectives (i.e. socio-economic, institutional, cultural ones). The new model will contextualise the sequence based on technologies, entrepreneur traits, corporate and institutional contexts, and complexity perception, the sequence's central node. Technology adoption can also be studied by examining complexity perceptions along the AKAIE sequence. This study proposes a new model to evaluate the diffusion of a given technology, offering the policy maker the possibility to be able to act promptly across the process. The development of responsible policies for evaluating the effectiveness of innovation is more necessary than ever, especially to orient strategies and interventions in the face of major scenarios of change.
Resumo:
The Internet of Things (IoT) has grown rapidly in recent years, leading to an increased need for efficient and secure communication between connected devices. Wireless Sensor Networks (WSNs) are composed of small, low-power devices that are capable of sensing and exchanging data, and are often used in IoT applications. In addition, Mesh WSNs involve intermediate nodes forwarding data to ensure more robust communication. The integration of Unmanned Aerial Vehicles (UAVs) in Mesh WSNs has emerged as a promising solution for increasing the effectiveness of data collection, as UAVs can act as mobile relays, providing extended communication range and reducing energy consumption. However, the integration of UAVs and Mesh WSNs still poses new challenges, such as the design of efficient control and communication strategies. This thesis explores the networking capabilities of WSNs and investigates how the integration of UAVs can enhance their performance. The research focuses on three main objectives: (1) Ground Wireless Mesh Sensor Networks, (2) Aerial Wireless Mesh Sensor Networks, and (3) Ground/Aerial WMSN integration. For the first objective, we investigate the use of the Bluetooth Mesh standard for IoT monitoring in different environments. The second objective focuses on deploying aerial nodes to maximize data collection effectiveness and QoS of UAV-to-UAV links while maintaining the aerial mesh connectivity. The third objective investigates hybrid WMSN scenarios with air-to-ground communication links. One of the main contribution of the thesis consists in the design and implementation of a software framework called "Uhura", which enables the creation of Hybrid Wireless Mesh Sensor Networks and abstracts and handles multiple M2M communication stacks on both ground and aerial links. The operations of Uhura have been validated through simulations and small-scale testbeds involving ground and aerial devices.
Resumo:
Negli ultimi tempi la questione su come arginare il problema della diffusione delle fake news è diventata predominante sia nel dibattito pubblico che politico; in quanto miliardi di terabyte di foto, testi, video, informazioni si muovono quotidianamente attraverso le piattaforme social persuadendo in maniera più o meno efficace ciascun utente. Questo è tutto amplificato dal fatto che il mondo dell'informazione sia radicalmente cambiato col passare del tempo, in risposta alla crescita del fabbisogno informativo, dando maggiore importanza al numero di click piuttosto che all'attendibilità dell'informazione stessa. Nel contesto appena descritto i social media e la rete in generale hanno un ruolo molto importante in quanto tutti hanno diritto di parola al di là di meriti o conoscenze personali. Quello che conta davvero non è l’aderenza ai fatti, quanto la conformità con ciò a cui si crede e con la propria visione del mondo. L'uso e il significato del termine fake news si è evoluto nel tempo. Sebbene originariamente fosse utilizzato per fare riferimento a informazioni false e spesso clamorose diffuse sotto le spoglie di notizie, il termine si è evoluto ed è diventato sinonimo di diffusione di informazioni false che possono differenziarsi in base ai mezzi utilizzati per la falsificazione o in base all'intento per il quale sono state diffuse. L'obiettivo di questa tesi è quello di introdurre una rassegna delle metodologie atte a identificare e classifcare le fake news. Molti esperti hanno studiato modi per analizzare manualmente l'autenticità delle notizie; tuttavia, come valutarla in modo efficace è ancora una questione aperta. Nello specifico, la tesi fornisce anche un contributo per limitare la diffusione delle fake news sui social network, in quanto queste potrebbero influenzare o alterare l'opinione pubblica, contribuendo ad alimentare teorie complottistiche.
Resumo:
Il Machine Learning si sta rivelando una tecnologia dalle incredibili potenzialità nei settori più disparati. Le diverse tecniche e gli algoritmi che vi fanno capo abilitano analisi dei dati molto più efficaci rispetto al passato. Anche l’industria assicurativa sta sperimentando l’adozione di soluzioni di Machine Learning e diverse sono le direzioni di innovamento che ne stanno conseguendo, dall’efficientamento dei processi interni all’offerta di prodotti rispondenti in maniera adattiva alle esigenze del cliente. Questo lavoro di tesi è stato realizzato durante un tirocinio presso Unisalute S.p.A., la prima assicurazione in ambito sanitario in Italia. La criticità intercettata è stata la sovrastima del capitale da destinare a riserva a fronte dell’impegno nei confronti dell’assicurato: questo capitale immobilizzato va a sottrarre risorse ad investimenti più proficui nel medio e lungo termine, per cui è di valore stimarlo appropriatamente. All'interno del settore IT di Unisalute, ho lavorato alla progettazione e implementazione di un modello di Machine Learning che riesca a prevedere se un sinistro appena preso in gestione sarà liquidato o meno. Dotare gli uffici impegnati nella determinazione del riservato di questa stima aggiuntiva basata sui dati, sarebbe di notevole supporto. La progettazione del modello di Machine Learning si è articolata in una Data Pipeline contenente le metodologie più efficienti con riferimento al preprocessamento e alla modellazione dei dati. L’implementazione ha visto Python come linguaggio di programmazione; il dataset, ottenuto a seguito di estrazioni e integrazioni a partire da diversi database Oracle, presenta una cardinalità di oltre 4 milioni di istanze caratterizzate da 32 variabili. A valle del tuning degli iperparamentri e dei vari addestramenti, si è raggiunta un’accuratezza dell’86% che, nel dominio di specie, è ritenuta più che soddisfacente e sono emersi contributi non noti alla liquidabilità dei sinistri.
Resumo:
La ricostruzione delle traiettorie delle particelle prodotte dai vertici di interazione a LHC è di fondamentale importanza per tutti gli esperimenti. Questo passo è uno dei più dispendiosi in termini di tempo e calcolo computazionale nella catena di ricostruzione dell’evento e diventa sempre più complesso con l’aumentare del numero di collisioni. L’esperimento CMS adotta un rivelatore di tracciamento con tecnologia al silicio, dove la parte più interna sfrutta rivelatori con geometria a pixel, mentre la parte esterna utilizza delle strisce di silicio. Per quanto riguarda la ricostruzione nel rivelatore a pixel, sono stati sviluppati diversi algoritmi ottimizzati per fronteggiare l’alto rate di acquisizione dati, sfruttando anche il calcolo parallelo su GPU, con un’efficienza di tracciamento comparabile o superiore agli algoritmi precedentemente utilizzati. Questi nuovi algoritmi sono alla base del software Patatrack per la ricostruzione delle traiettorie. Il lavoro descritto in questa tesi punta ad adattare Patatrack ad una geometria diversa e più complessa di quella di CMS e di valutarne le prestazioni di fisica e computazionali. Sono stati utilizzati i dati forniti dalla TrackML challenge, il cui scopo è incentivare lo sviluppo di nuovi algoritmi di ricostruzione di tracce per gli esperimenti in fisica delle alte energie. E' stato condotto uno studio approfondito della nuova geometria per potervi successivamente adattare il software esistente. Infine, la catena di ricostruzione è stata modificata per poter utilizzare i dati forniti dalla TrackML challenge e permettere la ricostruzione delle traiettorie.
Resumo:
Il presente elaborato vuole guidare il lettore lungo l’itinerario che ha previsto la cura e il rilascio di un’applicazione web a tema di e-learning. Greenwich, questo il nome della piattaforma, vuole essere un efficiente strumento di supporto online alla didattica del corso di Basi di Dati dell’Università di Bologna. Lo scopo primario dell’applicazione web è, infatti, quello di fornire agli studenti un mezzo per eseguire query mongoDB in maniera semplice, mirata e su richiesta del docente. Salvo un’approfondita ricerca culturale riguardante il contesto in cui si sviluppa l’applicazione, l’obiettivo primario della trattazione rimane quello di descrivere in modo ordinato i momenti impattanti che hanno segnato, passo dopo passo, le fasi di crescita di Greenwich, raggruppati in tre macro fasi caratteristiche: progettazione, implementazione e validazione.
Resumo:
In the metal industry, and more specifically in the forging one, scrap material is a crucial issue and reducing it would be an important goal to reach. Not only would this help the companies to be more environmentally friendly and more sustainable, but it also would reduce the use of energy and lower costs. At the same time, the techniques for Industry 4.0 and the advancements in Artificial Intelligence (AI), especially in the field of Deep Reinforcement Learning (DRL), may have an important role in helping to achieve this objective. This document presents the thesis work, a contribution to the SmartForge project, that was performed during a semester abroad at Karlstad University (Sweden). This project aims at solving the aforementioned problem with a business case of the company Bharat Forge Kilsta, located in Karlskoga (Sweden). The thesis work includes the design and later development of an event-driven architecture with microservices, to support the processing of data coming from sensors set up in the company's industrial plant, and eventually the implementation of an algorithm with DRL techniques to control the electrical power to use in it.
Resumo:
Nei prossimi anni è atteso un aggiornamento sostanziale di LHC, che prevede di aumentare la luminosità integrata di un fattore 10 rispetto a quella attuale. Tale parametro è proporzionale al numero di collisioni per unità di tempo. Per questo, le risorse computazionali necessarie a tutti i livelli della ricostruzione cresceranno notevolmente. Dunque, la collaborazione CMS ha cominciato già da alcuni anni ad esplorare le possibilità offerte dal calcolo eterogeneo, ovvero la pratica di distribuire la computazione tra CPU e altri acceleratori dedicati, come ad esempio schede grafiche (GPU). Una delle difficoltà di questo approccio è la necessità di scrivere, validare e mantenere codice diverso per ogni dispositivo su cui dovrà essere eseguito. Questa tesi presenta la possibilità di usare SYCL per tradurre codice per la ricostruzione di eventi in modo che sia eseguibile ed efficiente su diversi dispositivi senza modifiche sostanziali. SYCL è un livello di astrazione per il calcolo eterogeneo, che rispetta lo standard ISO C++. Questo studio si concentra sul porting di un algoritmo di clustering dei depositi di energia calorimetrici, CLUE, usando oneAPI, l'implementazione SYCL supportata da Intel. Inizialmente, è stato tradotto l'algoritmo nella sua versione standalone, principalmente per prendere familiarità con SYCL e per la comodità di confronto delle performance con le versioni già esistenti. In questo caso, le prestazioni sono molto simili a quelle di codice CUDA nativo, a parità di hardware. Per validare la fisica, l'algoritmo è stato integrato all'interno di una versione ridotta del framework usato da CMS per la ricostruzione. I risultati fisici sono identici alle altre implementazioni mentre, dal punto di vista delle prestazioni computazionali, in alcuni casi, SYCL produce codice più veloce di altri livelli di astrazione adottati da CMS, presentandosi dunque come una possibilità interessante per il futuro del calcolo eterogeneo nella fisica delle alte energie.
Resumo:
A proof of concept for a wearable device is presented to help patients who suffer from panic attacks due to panic disorder. The aim of this device is to enable such patients manage these stressful episodes by guiding them to regulate their breathing and by informing the care taker. Panic attack prediction is deployed that can enable the healthcare providers to not only monitor and manage the panic attacks of a patient but also carry out an early intervention to reduce the symptom severity of the approaching panic attack. The patient can acquire the help they need, ultimately regaining control. The concept of panic attack prediction can lead to a personalized treatment of the patient. The study is conducted using a small real-world dataset, and only two primary symptoms of panic attack are used. These symptoms include pacing heart rate and hyperventilation or abnormal breathing rate. This thesis project is developed in collaboration with ALTEN italia and all the required hardware is provided by them.
Resumo:
Con l’avvento dell’Industry 4.0, l’utilizzo dei dispositivi Internet of Things (IoT) è in continuo aumento. Le aziende stanno spingendo sempre più verso l’innovazione, andando ad introdurre nuovi metodi in grado di rinnovare sistemi IoT esistenti e crearne di nuovi, con prestazioni all’avanguardia. Un esempio di tecniche innovative emergenti è l’utilizzo dei Digital Twins (DT). Essi sono delle entità logiche in grado di simulare il reale comportamento di un dispositivo IoT fisico; possono essere utilizzati in vari scenari: monitoraggio di dati, rilevazione di anomalie, analisi What-If oppure per l’analisi predittiva. L’integrazione di tali tecnologie con nuovi paradigmi innovativi è in rapido sviluppo, uno tra questi è rappresentato dal Web of Things (WoT). Il Web of Thing è un termine utilizzato per descrivere un paradigma che permette ad oggetti del mondo reale di essere gestiti attraverso interfacce sul World Wide Web, rendendo accessibile la comunicazione tra più dispositivi con caratteristiche hardware e software differenti. Nonostante sia una tecnologia ancora in fase di sviluppo, il Web of Thing sta già iniziando ad essere utilizzato in molte aziende odierne. L’elaborato avrà come obiettivo quello di poter definire un framework capace di integrare un meccanismo di generazione automatica di Digital Twin su un contesto Web of Thing. Combinando tali tecnologie, si potrebbero sfruttare i vantaggi dell’interoperabilità del Web of Thing per poter generare un Digital Twin, indipendentemente dalle caratteristiche hardware e software degli oggetti da replicare.