994 resultados para Apolipoprotéine AI
Resumo:
Nell' elaborato vengono descritti gli studi conseguiti sia a livello internazionale che nazionale riguardanti la sostenibilità e i consumi energetici dell' ambiente costruito, passando dai problemi di occupazione, crescita economica e riduzione di emissioni di gas ad effetto serra, proseguendo poi con gli obiettivi da adottare in termini anche di circular economy e industria 4.0 per arrivare ad un unico grande scenario, ovvero quello della Riqualificazione Energetica degli Edifici.
Resumo:
Teoria delle funzioni di matrici. Spiegazione del concetto di network, proprietà rilevanti rilevate attraverso determinate funzioni di matrici. Applicazione della teoria a due esempi di network reali.
Resumo:
Developers strive to create innovative Artificial Intelligence (AI) behaviour in their games as a key selling point. Machine Learning is an area of AI that looks at how applications and agents can be programmed to learn their own behaviour without the need to manually design and implement each aspect of it. Machine learning methods have been utilised infrequently within games and are usually trained to learn offline before the game is released to the players. In order to investigate new ways AI could be applied innovatively to games it is wise to explore how machine learning methods could be utilised in real-time as the game is played, so as to allow AI agents to learn directly from the player or their environment. Two machine learning methods were implemented into a simple 2D Fighter test game to allow the agents to fully showcase their learned behaviour as the game is played. The methods chosen were: Q-Learning and an NGram based system. It was found that N-Grams and QLearning could significantly benefit game developers as they facilitate fast, realistic learning at run-time.
Resumo:
Résumé non disponible
Resumo:
The authors present a proposal to develop intelligent assisted living environments for home based healthcare. These environments unite the chronical patient clinical history sematic representation with the ability of monitoring the living conditions and events recurring to a fully managed Semantic Web of Things (SWoT). Several levels of acquired knowledge and the case based reasoning that is possible by knowledge representation of the health-disease history and acquisition of the scientific evidence will deliver, through various voice based natural interfaces, the adequate support systems for disease auto management but prominently by activating the less differentiated caregiver for any specific need. With these capabilities at hand, home based healthcare providing becomes a viable possibility reducing the institutionalization needs. The resulting integrated healthcare framework will provide significant savings while improving the generality of health and satisfaction indicators.
Resumo:
La tesi si propone di analizzare i procedimenti giudiziari avviati dalla magistratura francese nel dopoguerra - dal 1945 alla metà degli anni Cinquanta – a carico di ex partigiani per crimini commessi tra il 1944 e il 1° giugno 1946, data legale della cessazione delle ostilità. La tesi è strutturata in quattro capitoli tematici principali. Andando oltre la cesura rappresentata dalla fine della Seconda Guerra Mondiale, la tesi esamina un aspetto poco conosciuto di quanto accaduto dopo la fine della guerra di liberazione, coinvolgendo alcuni dei suoi protagonisti. Fin dall'inizio, la Resistenza ha rappresentato una complessa "questione memoriale"; questo studio mostra come i processi ai partigiani si inseriscano nel quadro più ampio della difficile costruzione della memoria degli anni della guerra. In effetti, i processi ai partigiani hanno costituito un terreno di confronto politico e sono stati strumentalizzati. Inoltre, la tesi si inserisce nel dibattito storiografico intorno alla categoria della giustizia di transizione, completando un quadro che si limitava allo studio dell’epurazione. È un nuovo sguardo sul periodo di transizione che ci permette di osservare, in modo completo e complesso, il passaggio attraverso diverse forme di giustizia con continuità e rotture. In questo senso, lo studio dei processi porta alla luce una serie di dinamiche legate non solo agli attori direttamente coinvolti, ma anche alla società in generale.
Resumo:
La Tesi nasce a seguito della richiesta da parte di un’Azienda Socia del Consorzio Esperienza Energia di un servizio di supporto per l’ottimizzazione del proprio Sistema di Gestione dell’Energia (SGE/EnMS) ed in particolare per l’implementazione di metodologie di budgeting più efficienti rispetto a quelle attualmente utilizzate. Questo lavoro di Tesi si è sviluppato in due parti: Nella prima parte viene descritto, a livello generale, che cosa si intende per Sistema di Gestione dell’Energia o Energy Management System e quali sono i vantaggi nell’implementazione di tale sistema in una realtà industriale. Successivamente, viene presentata la norma “UNI CEI EN ISO 50001: Sistemi di Gestione dell’Energia – Requisiti e linee guida per l’uso” attraverso una breve introduzione su quelli che sono i requisiti e gli obiettivi descritti nella norma. Nella seconda parte viene descritta l’implementazione pratica di un SGE presso un’Azienda Socia di CEE, partendo dalla raccolta sia dei dati di consumo a livello globale (LIVELLO A) che a livello di Edificio (LIVELLO B), sia dall'individuazione dei principali Energy Drivers (parametri) che veicolano i consumi. Attraverso questi dati è stato creato un Modello di calcolo per la definizione dei consumi di Riferimento (Energy Baseline); tale Baseline traccia i dati di prestazione energetica da cui si parte per andare a costruire per l’azienda i principali Indicatori Energetici (EnPI, Energy Performance Indicators). Il modello energetico così costruito è stato quindi tarato sui consumi energetici misurati al fine di fornire all'Azienda un algoritmo di stima dei propri consumi energetici futuri, sia mensili che annuali. Il processo di taratura ha dimostrato come il modello energetico dell’azienda che è stato costruito in questa Tesi sia da ritenersi uno strumento affidabile per la previsione dei consumi energetici futuri ipotizzando un certo livello di produzione industriale nel corso dell’anno oggetto di simulazione.
Resumo:
In questa tesi si è cercato di trovare le soluzioni più efficaci a supporto delle questioni legate all'ipertensione di seguito descritte attraverso l'uso di tecniche riguardanti l'intelligenza artificiale e l'Internet of Things. Uno tra i compiti dei medici che si occupano di curare i malati di ipertensione è quello di elaborare protocolli per quanto riguarda la prevenzione e la cura di questa malattia, i quali vengono periodicamente aggiornati. Per supportare ciò, il primo progetto sviluppato è consistito in un'analisi dei dati sul dataset ottenuto a partire dall'elaborazione delle risposte date ai questionari che sono stati distribuiti durante la Giornata Mondiale dell'Ipertensione. A partire da questo, si è cercato di evidenziare la classe di persone che con più probabilità sono malate di ipertensione in modo tale che le linee guida aggiornate si concentrino maggiormente su costoro. La seconda questione affrontata è che non sempre le cure che vengono prescritte sono efficaci, talvolta a causa del medico, talvolta a causa del paziente. Si rende perciò necessario fornire ai pazienti degli strumenti che li aiutino direttamente nella cura della loro malattia. Devono avere anche lo scopo di aiutare il medico nel suo lavoro di monitoraggio periodico delle condizioni di salute del paziente, perché possa avere realmente il polso della situazione. Per fare questo, il secondo progetto ha riguardato lo sviluppo di un chatbot disponibile sulla piattaforma di messaggistica istantanea Telegram ad uso dei malati di ipertensione. Questo assistente virtuale permette loro di registrare le misurazioni di pressione che settimanalmente devono effettuare e ricorda loro di farlo quando passa troppo tempo dall'ultima misurazione. Il sistema permette inoltre di visualizzare medie e grafici delle misurazioni che sono state raccolte cosicché il medico può affidarsi ad uno strumento più evoluto del semplice libretto diario in cui il paziente annota tutte le misurazioni.
Resumo:
Introduzione: I neuroni colinergici ricoprono un ruolo importante nella regolazione dei processi flogistici, tale scoperta ha portato la ricerca scientifica ad approfondire questo aspetto, provando che la stimolazione del Nervo Vago può essere utilizzata nel trattamento delle patologie infiammatorie. La respirazione potrebbe essere una tecnica volta a stimolare il Nervo Vago, inducendo cosi spostamenti nell’equilibrio simpatico-vagale verso una predominanza parasimpatica, con i conseguenti riflessi anti-infiammatori. Materiali e metodi: È stata effettuata una prima ricerca in letteratura per identificare studi che provassero la funzione immunologica, anti-infiammatoria, bi-direzionale del Nervo Vago. Attraverso la seconda ricerca è stata analizzata la possibile correlazione tra la pratica di pattern respiratori e la stimolazione del Nervo Vago analizzando i marker tonici vagali. Sono stati visionati i database elettronici PUBMED, CINAHL, COCHRANE e PEDRO. La ricerca è stata effettuata nel periodo che va da marzo 2020 ad ottobre 2020. Risultati: Il Nervo Vago è coinvolto nell’omeostasi dei processi infiammatori attraverso un sistema di controllo bi-direzionale neuroimmunologico. È capace di individuare i processi flogistici silenti nella periferia attraverso le vie afferenti, e mediante la via efferente colinergica anti- infiammatoria li disattiva. In base agli studi analizzati, un pattern respiratorio di circa 6 cicli resp/ min con un rapporto basso tra inspirazione ed espirazione evidenzia un aumento significativo nell’analisi dello spettro dell’ Heart Rate Variability, del baroriflesso e dell’aritmia sinusale respiratoria. Conclusioni: In accordo con i risultati biofisici e neurofisiologici e con le attuali pratiche medico ingegneristiche che utilizzano la stimolazione del Nervo Vago, nel trattamento di diverse patologie, si vuole invogliare la ricerca scientifica ad indagare un possibile utilizzo terapeutico della respirazione.
Resumo:
Riqualificare gli spazi dimenticati della periferia bolognese significa confrontarsi con problematiche cittadine fino ad ora mai affrontate.L’area militare di Santa Viola rappresenta in pieno questa situazione e racchiude al suo interno un contesto completamente distaccato dal resto del quartiere, cristallizzato nel tempo a causa del suo muro di recinzione; intervenire in un contesto così distaccato dal contesto rappresenta una sfida per chiunque ci si voglia avvicinare. Le recenti proteste contro il disboscamento dell’area ovest dei Prati di Caprara e l’urbanizzazione intensiva di quest’ultima hanno fornito spunti importanti su quale fosse la strada migliore da perseguire. Il progetto propone la realizzazione di un nuovo complesso pubblico che diventi portavoce della relazione, al giorno d’oggi frammentato, fra centro abitato e le aree verdi che lo circondano, e lo fa attraverso una rete di percorsi ciclopedonali semplici, in stretta connessione con i nuovi sistemi di mobilità pubblica, in particolare la tramvia e la stazione ferroviaria previsti dal PUMS di Bologna. Col fine di portare nuova linfa vitale al quartiere, l’area diventerà un nuovo polmone verde fruibile dalla cittadinanza, ospitando al suo interno la nuova scuola di Design ed il museo della memoria per la strage del 2 agosto. Il grande spazio di carattere pubblico genera un corridoio verde che parte del parco fluviale e giunge in prossimità di Porta San Felice, congiungendo sia idealmente che fisicamente il nuovo polo attrattore del quartiere a quelli già presenti in zona: la fondazione MAST e l’Opificio Golinelli.Insieme collaborano per restituire una nuova immagine al quartiere Santa Viola, culturalmente attiva e strattamente connessa alla città storica.
Resumo:
La schizofrenia rappresenta uno dei più grandi enigmi per l’impresa conoscitiva umana: non si conosce la sua eziologia, né le sue basi biologiche e cerebrali. Non è neanche chiaro cosa accada nell’esperienza di chi ne soffre, che sembra vivere in un mondo altro. La scarsa conoscenza dell’esperienza schizofrenica e la distanza tra questa e il senso comune hanno portato molti studiosi a inquadrare questo disturbo come illogico, irrazionale, insensato. Il presente lavoro tenta di confutare tale impostazione, mostrando come il mondo di senso dello schizofrenico si altera, non si disgrega; si trasforma, non si annulla. Il campo di studi all’interno del quale si colloca la ricerca è la semiotica, disciplina che studia i sistemi e i processi di significazione e i modi attraverso cui l’essere umano dà senso al mondo. L’intera indagine è inserita in un quadro interdisciplinare in costante dialogo con la psicopatologia fenomenologica e le scienze cognitive contemporanee, e si sviluppa a partire da numerosi testi autobiografici di pazienti schizofrenici, report psichiatrici, articoli di giornale, film e romanzi sul tema. L’ipotesi su cui si muove il lavoro è che sia possibile comprendere la schizofrenia come un problema costitutivamente semiotico, il cui nucleo è da rintracciarsi in una radicale metamorfosi delle modalità di produrre e interpretare il significato. La scommessa sottesa è che la semiotica possa contribuire in modo sostanziale alla comprensione delle modalità attraverso cui la nostra cultura concettualizza la schizofrenia e dei modi in cui gli schizofrenici danno senso al mondo. Il lavoro indaga, quindi, i legami tra schizofrenia e cultura, la storia del concetto nosografico, e le alterazioni dei processi di significazione nei casi di eloquio disorganizzato, nei racconti autobiografici e nei deliri, cercando anche di fornire strumenti utili alla pratica clinica.
Resumo:
Embedding intelligence in extreme edge devices allows distilling raw data acquired from sensors into actionable information, directly on IoT end-nodes. This computing paradigm, in which end-nodes no longer depend entirely on the Cloud, offers undeniable benefits, driving a large research area (TinyML) to deploy leading Machine Learning (ML) algorithms on micro-controller class of devices. To fit the limited memory storage capability of these tiny platforms, full-precision Deep Neural Networks (DNNs) are compressed by representing their data down to byte and sub-byte formats, in the integer domain. However, the current generation of micro-controller systems can barely cope with the computing requirements of QNNs. This thesis tackles the challenge from many perspectives, presenting solutions both at software and hardware levels, exploiting parallelism, heterogeneity and software programmability to guarantee high flexibility and high energy-performance proportionality. The first contribution, PULP-NN, is an optimized software computing library for QNN inference on parallel ultra-low-power (PULP) clusters of RISC-V processors, showing one order of magnitude improvements in performance and energy efficiency, compared to current State-of-the-Art (SoA) STM32 micro-controller systems (MCUs) based on ARM Cortex-M cores. The second contribution is XpulpNN, a set of RISC-V domain specific instruction set architecture (ISA) extensions to deal with sub-byte integer arithmetic computation. The solution, including the ISA extensions and the micro-architecture to support them, achieves energy efficiency comparable with dedicated DNN accelerators and surpasses the efficiency of SoA ARM Cortex-M based MCUs, such as the low-end STM32M4 and the high-end STM32H7 devices, by up to three orders of magnitude. To overcome the Von Neumann bottleneck while guaranteeing the highest flexibility, the final contribution integrates an Analog In-Memory Computing accelerator into the PULP cluster, creating a fully programmable heterogeneous fabric that demonstrates end-to-end inference capabilities of SoA MobileNetV2 models, showing two orders of magnitude performance improvements over current SoA analog/digital solutions.
Resumo:
I set out the pros and cons of conferring legal personhood on artificial intelligence systems (AIs), mainly under civil law. I provide functionalist arguments to justify this policy choice and identify the content that such a legal status might have. Although personhood entails holding one or more legal positions, I will focus on the distribution of liabilities arising from unpredictably illegal and harmful conduct. Conferring personhood on AIs might efficiently allocate risks and social costs, ensuring protection for victims, incentives for production, and technological innovation. I also consider other legal positions, e.g., the capacity to act, the ability to hold property, make contracts, and sue (and be sued). However, I contend that even assuming that conferring personhood on AIs finds widespread consensus, its implementation requires solving a coordination problem, determined by three asymmetries: technological, intra-legal systems, and inter-legal systems. I address the coordination problem through conceptual analysis and metaphysical explanation. I first frame legal personhood as a node of inferential links between factual preconditions and legal effects. Yet, this inferentialist reading does not account for the ‘background reasons’, i.e., it does not explain why we group divergent situations under legal personality and how extra-legal information is integrated into it. One way to account for this background is to adopt a neo-institutional perspective and update its ontology of legal concepts with further layers: the meta-institutional and the intermediate. Under this reading, the semantic referent of legal concepts is institutional reality. So, I use notions of analytical metaphysics, such as grounding and anchoring, to explain the origins and constituent elements of legal personality as an institutional kind. Finally, I show that the integration of conceptual and metaphysical analysis can provide the toolkit for finding an equilibrium around the legal-policy choices that are involved in including (or not including) AIs among legal persons.
Resumo:
Digital forensics as a field has progressed alongside technological advancements over the years, just as digital devices have gotten more robust and sophisticated. However, criminals and attackers have devised means for exploiting the vulnerabilities or sophistication of these devices to carry out malicious activities in unprecedented ways. Their belief is that electronic crimes can be committed without identities being revealed or trails being established. Several applications of artificial intelligence (AI) have demonstrated interesting and promising solutions to seemingly intractable societal challenges. This thesis aims to advance the concept of applying AI techniques in digital forensic investigation. Our approach involves experimenting with a complex case scenario in which suspects corresponded by e-mail and deleted, suspiciously, certain communications, presumably to conceal evidence. The purpose is to demonstrate the efficacy of Artificial Neural Networks (ANN) in learning and detecting communication patterns over time, and then predicting the possibility of missing communication(s) along with potential topics of discussion. To do this, we developed a novel approach and included other existing models. The accuracy of our results is evaluated, and their performance on previously unseen data is measured. Second, we proposed conceptualizing the term “Digital Forensics AI” (DFAI) to formalize the application of AI in digital forensics. The objective is to highlight the instruments that facilitate the best evidential outcomes and presentation mechanisms that are adaptable to the probabilistic output of AI models. Finally, we enhanced our notion in support of the application of AI in digital forensics by recommending methodologies and approaches for bridging trust gaps through the development of interpretable models that facilitate the admissibility of digital evidence in legal proceedings.
Resumo:
The first topic analyzed in the thesis will be Neural Architecture Search (NAS). I will focus on two different tools that I developed, one to optimize the architecture of Temporal Convolutional Networks (TCNs), a convolutional model for time-series processing that has recently emerged, and one to optimize the data precision of tensors inside CNNs. The first NAS proposed explicitly targets the optimization of the most peculiar architectural parameters of TCNs, namely dilation, receptive field, and the number of features in each layer. Note that this is the first NAS that explicitly targets these networks. The second NAS proposed instead focuses on finding the most efficient data format for a target CNN, with the granularity of the layer filter. Note that applying these two NASes in sequence allows an "application designer" to minimize the structure of the neural network employed, minimizing the number of operations or the memory usage of the network. After that, the second topic described is the optimization of neural network deployment on edge devices. Importantly, exploiting edge platforms' scarce resources is critical for NN efficient execution on MCUs. To do so, I will introduce DORY (Deployment Oriented to memoRY) -- an automatic tool to deploy CNNs on low-cost MCUs. DORY, in different steps, can manage different levels of memory inside the MCU automatically, offload the computation workload (i.e., the different layers of a neural network) to dedicated hardware accelerators, and automatically generates ANSI C code that orchestrates off- and on-chip transfers with the computation phases. On top of this, I will introduce two optimized computation libraries that DORY can exploit to deploy TCNs and Transformers on edge efficiently. I conclude the thesis with two different applications on bio-signal analysis, i.e., heart rate tracking and sEMG-based gesture recognition.