998 resultados para adattamento ai cambiamenti climatici, fiume Reno, Bologna
Resumo:
Big data and AI are paving the way to promising scenarios in clinical practice and research. However, the use of such technologies might clash with GDPR requirements. Today, two forces are driving the EU policies in this domain. The first is the necessity to protect individuals’ safety and fundamental rights. The second is to incentivize the deployment of innovative technologies. The first objective is pursued by legislative acts such as the GDPR or the AIA, the second is supported by the new data strategy recently launched by the European Commission. Against this background, the thesis analyses the issue of GDPR compliance when big data and AI systems are implemented in the health domain. The thesis focuses on the use of co-regulatory tools for compliance with the GDPR. This work argues that there are two level of co-regulation in the EU legal system. The first, more general, is the approach pursued by the EU legislator when shaping legislative measures that deal with fast-evolving technologies. The GDPR can be deemed a co-regulatory solution since it mainly introduces general requirements, which implementation shall then be interpretated by the addressee of the law following a risk-based approach. This approach, although useful is costly and sometimes burdensome for organisations. The second co-regulatory level is represented by specific co-regulatory tools, such as code of conduct and certification mechanisms. These tools are meant to guide and support the interpretation effort of the addressee of the law. The thesis argues that the lack of co-regulatory tools which are supposed to implement data protection law in specific situations could be an obstacle to the deployment of innovative solutions in complex scenario such as the health ecosystem. The thesis advances hypothesis on theoretical level about the reasons of such a lack of co-regulatory solutions.
Resumo:
The abundance of visual data and the push for robust AI are driving the need for automated visual sensemaking. Computer Vision (CV) faces growing demand for models that can discern not only what images "represent," but also what they "evoke." This is a demand for tools mimicking human perception at a high semantic level, categorizing images based on concepts like freedom, danger, or safety. However, automating this process is challenging due to entropy, scarcity, subjectivity, and ethical considerations. These challenges not only impact performance but also underscore the critical need for interoperability. This dissertation focuses on abstract concept-based (AC) image classification, guided by three technical principles: situated grounding, performance enhancement, and interpretability. We introduce ART-stract, a novel dataset of cultural images annotated with ACs, serving as the foundation for a series of experiments across four key domains: assessing the effectiveness of the end-to-end DL paradigm, exploring cognitive-inspired semantic intermediaries, incorporating cultural and commonsense aspects, and neuro-symbolic integration of sensory-perceptual data with cognitive-based knowledge. Our results demonstrate that integrating CV approaches with semantic technologies yields methods that surpass the current state of the art in AC image classification, outperforming the end-to-end deep vision paradigm. The results emphasize the role semantic technologies can play in developing both effective and interpretable systems, through the capturing, situating, and reasoning over knowledge related to visual data. Furthermore, this dissertation explores the complex interplay between technical and socio-technical factors. By merging technical expertise with an understanding of human and societal aspects, we advocate for responsible labeling and training practices in visual media. These insights and techniques not only advance efforts in CV and explainable artificial intelligence but also propel us toward an era of AI development that harmonizes technical prowess with deep awareness of its human and societal implications.
Resumo:
Riding the wave of recent groundbreaking achievements, artificial intelligence (AI) is currently the buzzword on everybody’s lips and, allowing algorithms to learn from historical data, Machine Learning (ML) emerged as its pinnacle. The multitude of algorithms, each with unique strengths and weaknesses, highlights the absence of a universal solution and poses a challenging optimization problem. In response, automated machine learning (AutoML) navigates vast search spaces within minimal time constraints. By lowering entry barriers, AutoML emerged as promising the democratization of AI, yet facing some challenges. In data-centric AI, the discipline of systematically engineering data used to build an AI system, the challenge of configuring data pipelines is rather simple. We devise a methodology for building effective data pre-processing pipelines in supervised learning as well as a data-centric AutoML solution for unsupervised learning. In human-centric AI, many current AutoML tools were not built around the user but rather around algorithmic ideas, raising ethical and social bias concerns. We contribute by deploying AutoML tools aiming at complementing, instead of replacing, human intelligence. In particular, we provide solutions for single-objective and multi-objective optimization and showcase the challenges and potential of novel interfaces featuring large language models. Finally, there are application areas that rely on numerical simulators, often related to earth observations, they tend to be particularly high-impact and address important challenges such as climate change and crop life cycles. We commit to coupling these physical simulators with (Auto)ML solutions towards a physics-aware AI. Specifically, in precision farming, we design a smart irrigation platform that: allows real-time monitoring of soil moisture, predicts future moisture values, and estimates water demand to schedule the irrigation.
Resumo:
Il miglioramento dell'assistenza e dei risultati dei pazienti si basano attualmente sullo sviluppo e sulla convalida di nuovi farmaci e tecnologie, soprattutto in campi in rapida evoluzione come la Cardiologia Interventistica. Tuttavia, al giorno d’oggi ancora poca attenzione è rivolta ai professionisti che effettuano tali operazioni, il cui sforzo cognitivo-motorio è essenziale per la riuscita degli interventi. L’ottimizzazione delle prestazioni e dell'organizzazione del lavoro è essenziale in quanto influisce sul carico di lavoro mentale dell'operatore e può determinare l'efficacia dell'intervento e l'impatto sulla prognosi dei pazienti. È stato ampiamente dimostrato che diverse funzioni cognitive, tra cui l'affaticamento mentale comporta alcuni cambiamenti nei segnali elettroencefalografici. Vi sono diversi marcatori dei segnali EEG ciascuno con una determinata ampiezza, frequenza e fase che permettono di comprendere le attività cerebrali. Per questo studio è stato utilizzato un modello di analisi spettrale elettroencefalografica chiamato Alpha Prevalence (AP), che utilizza le tre onde alpha, beta e theta, per mettere in correlazione i processi cognitivi da un lato e le oscillazioni EEG dall’altro. Questo elaborato, condotto insieme all’azienda Vibre, prende in esame il cambiamento dell’AP, all’interno di una popolazione di cardiologi interventisti che effettuano interventi in cath-lab presso l’ospedale universitario di Ferrara, per valutare la condizione di affaticamento mentale o di eccessiva sonnolenza. L’esperimento prevede la registrazione del segnale EEG nei partecipanti volontari durante gli interventi e durante le pause nel corso dell’intero turno di lavoro. Lo scopo sarà quello di rilevare i cambiamenti nella metrica dell’alpha prevalence al variare del carico attentivo: ossia al variare delle risorse attentive richieste dal compito in relazione all’aumentare del tempo.
Resumo:
La presente tesi si posiziona all’interno di un percorso di ricerca avviato riguardante lo studio delle coperture lignee di vari edifici storici. Gli obiettivi del lavoro consistono nel fornire un quadro generale sullo stato dell’arte della modellazione parametrica per la diagnosi di strutture lignee storiche, completare e approfondire lo studio delle capriate della Cattedrale di S.Pietro a Bologna ed effettuare un confronto sia in termini quantitativi che di velocità esecutiva con metodologia e risultati degli studi precedenti. Il metodo proposto,è stato perfezionato grazie ai feedback ottenuti in corso d’opera a seguito della sua applicazione a nuovi casi studio.L’intento principale è quello di consentire maggior automatizzazione e parametrizzazione del metodo per conferire alle procedure di modellazione un carattere generalizzato e rapidamente replicabile.Sono state ottimizzate le fasi di editing della nuvola di punti e di vettorializzazione delle sezioni degli elementi strutturali.Al fine di approfondire la conoscenza di queste strutture,si è acquisito il rilievo 3D completo del sottotetto dell’edificio con laser scanner.Il primo output consiste quindi in una nuvola di punti dalla quale sono state estrapolate le singole capriate;da queste è possibile estrarre le sezioni delle aste afferenti ai nodi,poi vettorializzate tramite software di modellazione parametrica:sono stati utilizzati algoritmi,programmati e testati nei precedenti studi,che generano 3 modelli per ogni capriata:il modello di rilievo, il modello proiettato e quello “ideale o teorico”.Comparando i modelli e la nuvola di punti di rilievo è possibile analizzare spostamenti e deformazioni delle capriate,ottenere informazioni sul loro comportamento puntale e trarre considerazioni sullo“stato di salute”globale del sottotetto.I dati raccolti permettono di acquisire una maggiore consapevolezza sulle capriate oggetto di indagine e potrebbero essere utilizzati per progettare eventuali interventi di recupero.
Resumo:
La possibilità di avere accesso alle piattaforme streaming consente all’utente di avere a disposizione un vasto catalogo pieno di contenuti multimediali provenienti da ogni parte del mondo. I prodotti audiovisivi, di cui cresce costantemente il numero di consumatori, sono diventati uno dei mezzi principali della globalizzazione e dello scambio tra i popoli: un film o una serie televisiva sono portatori di elementi originari e tipici della cultura del paese che li produce. In questo contesto, risulta evidente l’importanza della traduzione audiovisiva: il compito dei traduttori è tentare di facilitare il contatto tra le culture e la comprensione degli elementi che le caratterizzano, nel passaggio da una lingua a un’altra. Tuttavia, a causa dei limiti derivanti dalla natura audiovisiva di questi testi, non è sempre possibile ottenere un risultato che rispetti il testo di partenza e che allo stesso tempo sia comprensibile allo spettatore. Per questi motivi, i traduttori si trovano spesso costretti a valutare, a seconda della vicinanza tra le due culture, se mantenere, eliminare o gestire con strategie adatte i termini culturospecifici. Dopo aver contestualizzato brevemente le origini e le caratteristiche della traduzione audiovisiva, l’elaborato in oggetto si propone di descrivere gli adattamenti in italiano e in spagnolo di alcune espressioni, collocate in uno specifico contesto culturale, della serie tv statunitense The Marvelous Mrs. Maisel (Amy Sherman-Palladino, 2017), con l’obiettivo di identificare le tecniche di traduzione e il principale approccio, source-oriented o target-oriented, adottato.
Resumo:
Quello che intendo studiare sono i più importanti interventi antimonopolio negli ultimi 20 anni, per quanto riguarda le grandi potenze del web ossia Amazon, Apple, Google, Microsoft e Facebook. In particolare approfondirò tutti gli interventi applicati negli Stati Uniti d’America e in Europa nelle varie fasi temporali, ovvero dalla nascita dei colossi della rete, fino ad arrivare al periodo prepandemia, considerando che quest’ultima ha rappresentato un evento durante il quale si sono verificati dei cambiamenti fondamentali che hanno richiesto da parte delle autorità, ulteriori e successivi interventi e controlli per evitare abusi di potere. Ai fini della ricerca sarà importante studiare le origini della regolamentazione antitrust, sia in USA che in Europa da un punto di vista storico. Di conseguenza questi giganti del web hanno avuto l’opportunità di affermare il proprio potere e a volte di abusarne tanto da intensificare le attenzioni dell’antitrust nei loro confronti. Di conseguenza le vicende saranno seguite quotidianamente per mantenere lo studio aggiornato. Si tratta infatti di un settore in continuo divenire, la cui analisi sarebbe priva di significato senza una costante attenzione verso i cambiamenti.
Resumo:
La ricerca in campo agroalimentare ha da sempre messo in evidenza l'importanza della conservazione degli alimenti nel tempo. Alcune nuove tecnologie basate sulle alte pressioni, e dunque non termiche, di stabilizzazione ai fini della conservazione, come l’High Hydrostatic Pressure (HHP) o High Pressure Processing (HPP), possono risultare fondamentali nel preservare aspetti microbiologici, qualitativi e nutrizionali dell'alimento. In questo elaborato verranno osservati alcuni aspetti del metaboloma, l’insieme delle molecole di piccola dimensione con funzioni metaboliche, di campioni di Mugil cephalus trattati con HHP. Tali aspetti permetteranno di ottenere informazioni sul profilo amminoacidico e sulla freschezza del pesce. Lo studio del profilo amminoacidico permette di tracciare la tendenza del sapore dello specifico campione analizzato dal momento che ogni amminoacido contribuisce a definire uno specifico gusto fondamentale. La freschezza del pesce sarà descritta attraverso il K index che, tramite lo studio della degradazione dei nucleotidi nel periodo post-mortem, rappresenta uno strumento utile al fine dello studio dei cambiamenti della freschezza nel tempo e secondo la tecnologia applicata. L’analisi del metaboloma del cefalo è stata eseguita mediante la spettroscopia di risonanza magnetica nucleare al protone (1H-NMR) di cui si descrivono i principi fisici nel primo capitolo. Nel secondo capitolo sono descritti i software utilizzati per indentificare le molecole che compongono il metaboloma dei campioni analizzati. Infine, nel terzo capitolo, si valuta l’effetto del trattamento HHP (a 400, 500 e 600MPa) sul profilo amminoacidico e sul K index durante il periodo di conservazione.
Resumo:
A partire dagli anni ’50 furono sviluppati numerosi modelli con l’intento di studiare i fenomeni connessi al traffico. Alcuni di essi riuscirono non solo a spiegare i fenomeni per i quali erano stati ideati ma misero in evidenza altre caratteristiche tipiche dei sistemi dinamici, come la presenza di cicli di isteresi e cambiamenti nella distribuzione dei tempi di percorrenza in situazioni di congestione. Questo lavoro si propone di verificare la validità di un modello semplificato ideato per mettere in luce i comportamenti tipici di un sistema di traffico, in particolare le congestioni che si vengono a creare sulla rete stradale. Tale modello è stato implementato per mezzo della libreria C++ Traffic Flow Dynamics Model, reperibile al link https://github.com/Grufoony/TrafficFlowDynamicsModel. Ai fini dello studio sono stati utilizzati i Diagrammi Fondamentali Macroscopici, particolari diagrammi che mettono in relazione gli osservabili principali di un network stradale quali velocità, densità e flusso. Variando il carico immesso nella rete stradale è stato possibile studiare il sistema in diversi regimi: carico costante, carico piccato e carico periodico. Mediante questi studi sono emerse diverse proprietà tipiche di ogni regime e, per alcuni di essi, è stata verificate e giustificate la presenza di uno o più cicli di isteresi. In ultimo è stata effettuata una breve analisi ad-hoc volta a evidenziare i cambiamenti nella distribuzione dei tempi di percorrenza in relazione al regime di traffico considerato.
Resumo:
Questa tesi di laurea compie uno studio sull’ utilizzo di tecniche di web crawling, web scraping e Natural Language Processing per costruire automaticamente un dataset di documenti e una knowledge base di coppie verbo-oggetto utilizzabile per la classificazione di testi. Dopo una breve introduzione sulle tecniche utilizzate verrà presentato il metodo di generazione, prima in forma teorica e generalizzabile a qualunque classificazione basata su un insieme di argomenti, e poi in modo specifico attraverso un caso di studio: il software SDG Detector. In particolare quest ultimo riguarda l’applicazione pratica del metodo esposto per costruire una raccolta di informazioni utili alla classificazione di documenti in base alla presenza di uno o più Sustainable Development Goals. La parte relativa alla classificazione è curata dal co-autore di questa applicazione, la presente invece si concentra su un’analisi di correttezza e performance basata sull’espansione del dataset e della derivante base di conoscenza.
Resumo:
Il contenuto della tesi è incentrato sul processo di adattamento che lo studente Erasmus assume al momento dell'entrata in contatto con una cultura e dei valori diversi dai propri. L’elaborato si basa sul pensiero di Berry, che ha posto l'attenzione sull'inevitabile processo di adattamento dello studente e studiato strategie con le quali quest'ultimo può confrontarsi alla diversità. Nel primo capitolo si è dapprima analizzato il fenomeno della globalizzazione e il modo in cui la società attuale si adopera ogni giorno per prendere parte al processo di trasformazione, per poi porre l'attenzione sull'università di Bologna e sui progetti di scambio che quest'ultima propone. Nel secondo capitolo si è presentata la struttura dell’intervista sottoposta a cinque studentesse Erasmus outgoing del terzo anno del corso di laurea in Mediazione Linguistica Interculturale di Forlì al fine di far emergere i dettagli principali di quanto vissuto all'estero. Nel terzo e ultimo capitolo si sono analizzati i risultati delle interviste, mettendo in relazione la teoria e la pratica. Alla luce del pensiero di Berry, si è verificato come la realtà sia strettamente relazionata con gli elementi trattati dal sociologo e come le funzionalità delle strategie di adattamento possano essere applicabili a diverse esperienze di scambio all'estero.
Resumo:
La ricostruzione delle traiettorie delle particelle prodotte dai vertici di interazione a LHC è di fondamentale importanza per tutti gli esperimenti. Questo passo è uno dei più dispendiosi in termini di tempo e calcolo computazionale nella catena di ricostruzione dell’evento e diventa sempre più complesso con l’aumentare del numero di collisioni. L’esperimento CMS adotta un rivelatore di tracciamento con tecnologia al silicio, dove la parte più interna sfrutta rivelatori con geometria a pixel, mentre la parte esterna utilizza delle strisce di silicio. Per quanto riguarda la ricostruzione nel rivelatore a pixel, sono stati sviluppati diversi algoritmi ottimizzati per fronteggiare l’alto rate di acquisizione dati, sfruttando anche il calcolo parallelo su GPU, con un’efficienza di tracciamento comparabile o superiore agli algoritmi precedentemente utilizzati. Questi nuovi algoritmi sono alla base del software Patatrack per la ricostruzione delle traiettorie. Il lavoro descritto in questa tesi punta ad adattare Patatrack ad una geometria diversa e più complessa di quella di CMS e di valutarne le prestazioni di fisica e computazionali. Sono stati utilizzati i dati forniti dalla TrackML challenge, il cui scopo è incentivare lo sviluppo di nuovi algoritmi di ricostruzione di tracce per gli esperimenti in fisica delle alte energie. E' stato condotto uno studio approfondito della nuova geometria per potervi successivamente adattare il software esistente. Infine, la catena di ricostruzione è stata modificata per poter utilizzare i dati forniti dalla TrackML challenge e permettere la ricostruzione delle traiettorie.
Resumo:
La tesi si pone l’obiettivo di indagare quelli che sono gli avvenimenti successivi all’unità d’Italia in uno dei simboli più importanti per la città di bologna, la Basilica di San Petronio. Lo studio si colloca come proseguimento e completamento di due tesi precedentemente compilate, andando ad approfondire sia il cambiamento dal punto di vista legislativo ma anche le azioni restaurative compiute nel periodo di riferimento preso in analisi. La prima fase di lavoro è stata caratterizzata dalla ricerca dei cambiamenti legislativi e normativi avvenuti dal 1860 che accompagnano la creazione della legge di tutela dei monumenti, varata agli inizi del ’900. La seconda fase è iniziata con una significativa ricerca archivistica e con una successiva analisi dei documenti che ha portato ad evidenziare i lavori di restauro sia all’esterno della basilica e che all’interno. Successivamente è stato svolto un approfondimento sui dibattiti relativi al completamento della facciata caratteristici di fine ‘800 e inizi ‘900, andando ad analizzare nei rispettivi concorsi, i principi e modalità di analisi e scelta della soluzione più adeguata. La terza fase ha riguardato il progetto per l’allestimento di una sala museale, che va a creare un proseguimento con quelle che sono le due sale museali già esistenti, ma non adeguate a creare un percorso tale da raccontare gli avvenimenti più recenti della fabbrica. Quindi con il progetto in esame si propone di aumentare lo spazio di allestimento, dedicando l’area interessata alla storia della basilica, ai restauri ottocenteschi, ai progetti per il completamento della facciata e ai recenti restauri eseguiti, lasciando il museo attuale alla conservazione degli oggetti sacri ed ecclesiastici. Inoltre, si è posto l’obiettivo di illuminare efficacemente l’intero ambiente, di conseguenza è stato progettato un impianto d’illuminazione tale da aumentare il confort visivo e permettere una semplice lettura e visualizzazione dei materiali esposti.
Resumo:
Tutti i luoghi hanno qualcosa da raccontare, frammenti di storia che pian piano rischiano di svanire e rimanere soltanto memorie. Il territorio di Castel Bolognese parla di campagna, di pianura, di tradizioni agricole e rurali, ma ha anche una storia più antica, risalente ai tempi romani. La pianura castellana è stata “misurata” per la prima volta da loro, abili costruttori che, partendo dalla Via Emilia, realizzarono una maglia di strade regolare e precisa: la Centuriazione. È incredibile come un sistema così antico sia stato in grado di conferire un assetto territoriale al paese percepibile ancora oggi. Il progetto nasce come forma di valorizzazione del territorio di Castel Bolognese e affronta tre tematiche principali: la tutela del paesaggio naturale, la “ricucitura” delle Centurie e il progetto di una nuova costruzione. L’ambito di intervento è il Canale dei Molini, un tracciato storico che inizia il suo percorso a Castel Bolognese e ricalca per buona parte un asse centuriale. Esso attraversa vari comuni di pianura e si immette nel Canale di Bonifica destra di Reno. Il primo intervento progettuale riguarda la realizzazione di un itinerario ciclopedonale lungo questo canale, con l’obiettivo di “ricucire” e valorizzare la maglia centuriale attraverso varie azioni puntuali. Inoltre, laddove la trama è andata quasi completamente persa sono state progettate aree boschive per recuperarne l’aspetto originale con grande forza, rispettandone le dimensioni ed i confini. A scala urbana l’intervento consiste nel progetto di una Velostazione nell’area dismessa dell’ex scalo merci, con il fine di creare un collegamento tra il centro storico e la campagna, e conferendo un valore aggiunto alla ciclovia del Canale dei Molini. In conclusione, si vuole affrontare il rapporto fra architettura e paesaggio attribuendo un valore fondamentale alla conoscenza, all’ascolto ed al rispetto di questi luoghi, per poterne conservare nel tempo la loro identità e mantenerne viva la memoria.
Resumo:
La sostenibilità (ambientale, economica e sociale) non rappresenta per le aziende un trend passeggero, ma una direzione da seguire per poter rispondere a norme sempre più stringenti e a consumatori sempre più attenti. La tesi illustra il concetto di sviluppo sostenibile, il quale ha segnato varie tappe della storia tra cui la pubblicazione nel 2015 dell’Agenda 2030 dalle Nazioni Unite e la definizione dei 17 obiettivi di sviluppo sostenibile per contrastare i problemi climatici. Vengono descritti i principali strumenti introdotti dall’Unione Europea per promuovere una crescita verde, utilizzando leve di intervento sia legislative che con incentivi, quali il Green Deal che mira a promuovere attività sostenibili che non generino emissioni di inquinanti, il decreto legislativo che regola l’informativa non finanziaria, il Piano d’Azione della Commissione Europea per finanziare la crescita sostenibile. Quello che le aziende comunicano sui propri siti web è una prima indicazione delle loro politiche in materia di sostenibilità, insieme ai report e alle certificazioni più formali. Lo scopo della tesi è valutare a che punto sono le aziende di diversi settori e dimensioni nella comunicazione di queste tematiche, analizzando un campione di esse, per mezzo di un form progettato per raccogliere e archiviare dati strutturati presi dai siti web. Grazie a questo si arriverà ad un punteggio per ciascuna di esse che rappresenta l’attuale livello comunicativo. Un problema attuale riscontrato è quello del greenwashing: una strategia di marketing, per dimostrare un impegno non reale nei confronti dell’ambiente agli occhi degli stakeholder e per farle guadagnare punti in reputazione e immagine aziendale. Il fine ultimo della tesi è quello di dimostrare che la sostenibilità è una scelta necessaria che va compiuta fin da subito, e non una questione solo delle grandi aziende o dei settori più “verdi”.