994 resultados para Apoliporotein AI
Resumo:
La schizofrenia rappresenta uno dei più grandi enigmi per l’impresa conoscitiva umana: non si conosce la sua eziologia, né le sue basi biologiche e cerebrali. Non è neanche chiaro cosa accada nell’esperienza di chi ne soffre, che sembra vivere in un mondo altro. La scarsa conoscenza dell’esperienza schizofrenica e la distanza tra questa e il senso comune hanno portato molti studiosi a inquadrare questo disturbo come illogico, irrazionale, insensato. Il presente lavoro tenta di confutare tale impostazione, mostrando come il mondo di senso dello schizofrenico si altera, non si disgrega; si trasforma, non si annulla. Il campo di studi all’interno del quale si colloca la ricerca è la semiotica, disciplina che studia i sistemi e i processi di significazione e i modi attraverso cui l’essere umano dà senso al mondo. L’intera indagine è inserita in un quadro interdisciplinare in costante dialogo con la psicopatologia fenomenologica e le scienze cognitive contemporanee, e si sviluppa a partire da numerosi testi autobiografici di pazienti schizofrenici, report psichiatrici, articoli di giornale, film e romanzi sul tema. L’ipotesi su cui si muove il lavoro è che sia possibile comprendere la schizofrenia come un problema costitutivamente semiotico, il cui nucleo è da rintracciarsi in una radicale metamorfosi delle modalità di produrre e interpretare il significato. La scommessa sottesa è che la semiotica possa contribuire in modo sostanziale alla comprensione delle modalità attraverso cui la nostra cultura concettualizza la schizofrenia e dei modi in cui gli schizofrenici danno senso al mondo. Il lavoro indaga, quindi, i legami tra schizofrenia e cultura, la storia del concetto nosografico, e le alterazioni dei processi di significazione nei casi di eloquio disorganizzato, nei racconti autobiografici e nei deliri, cercando anche di fornire strumenti utili alla pratica clinica.
Resumo:
Embedding intelligence in extreme edge devices allows distilling raw data acquired from sensors into actionable information, directly on IoT end-nodes. This computing paradigm, in which end-nodes no longer depend entirely on the Cloud, offers undeniable benefits, driving a large research area (TinyML) to deploy leading Machine Learning (ML) algorithms on micro-controller class of devices. To fit the limited memory storage capability of these tiny platforms, full-precision Deep Neural Networks (DNNs) are compressed by representing their data down to byte and sub-byte formats, in the integer domain. However, the current generation of micro-controller systems can barely cope with the computing requirements of QNNs. This thesis tackles the challenge from many perspectives, presenting solutions both at software and hardware levels, exploiting parallelism, heterogeneity and software programmability to guarantee high flexibility and high energy-performance proportionality. The first contribution, PULP-NN, is an optimized software computing library for QNN inference on parallel ultra-low-power (PULP) clusters of RISC-V processors, showing one order of magnitude improvements in performance and energy efficiency, compared to current State-of-the-Art (SoA) STM32 micro-controller systems (MCUs) based on ARM Cortex-M cores. The second contribution is XpulpNN, a set of RISC-V domain specific instruction set architecture (ISA) extensions to deal with sub-byte integer arithmetic computation. The solution, including the ISA extensions and the micro-architecture to support them, achieves energy efficiency comparable with dedicated DNN accelerators and surpasses the efficiency of SoA ARM Cortex-M based MCUs, such as the low-end STM32M4 and the high-end STM32H7 devices, by up to three orders of magnitude. To overcome the Von Neumann bottleneck while guaranteeing the highest flexibility, the final contribution integrates an Analog In-Memory Computing accelerator into the PULP cluster, creating a fully programmable heterogeneous fabric that demonstrates end-to-end inference capabilities of SoA MobileNetV2 models, showing two orders of magnitude performance improvements over current SoA analog/digital solutions.
Resumo:
I set out the pros and cons of conferring legal personhood on artificial intelligence systems (AIs), mainly under civil law. I provide functionalist arguments to justify this policy choice and identify the content that such a legal status might have. Although personhood entails holding one or more legal positions, I will focus on the distribution of liabilities arising from unpredictably illegal and harmful conduct. Conferring personhood on AIs might efficiently allocate risks and social costs, ensuring protection for victims, incentives for production, and technological innovation. I also consider other legal positions, e.g., the capacity to act, the ability to hold property, make contracts, and sue (and be sued). However, I contend that even assuming that conferring personhood on AIs finds widespread consensus, its implementation requires solving a coordination problem, determined by three asymmetries: technological, intra-legal systems, and inter-legal systems. I address the coordination problem through conceptual analysis and metaphysical explanation. I first frame legal personhood as a node of inferential links between factual preconditions and legal effects. Yet, this inferentialist reading does not account for the ‘background reasons’, i.e., it does not explain why we group divergent situations under legal personality and how extra-legal information is integrated into it. One way to account for this background is to adopt a neo-institutional perspective and update its ontology of legal concepts with further layers: the meta-institutional and the intermediate. Under this reading, the semantic referent of legal concepts is institutional reality. So, I use notions of analytical metaphysics, such as grounding and anchoring, to explain the origins and constituent elements of legal personality as an institutional kind. Finally, I show that the integration of conceptual and metaphysical analysis can provide the toolkit for finding an equilibrium around the legal-policy choices that are involved in including (or not including) AIs among legal persons.
Resumo:
Digital forensics as a field has progressed alongside technological advancements over the years, just as digital devices have gotten more robust and sophisticated. However, criminals and attackers have devised means for exploiting the vulnerabilities or sophistication of these devices to carry out malicious activities in unprecedented ways. Their belief is that electronic crimes can be committed without identities being revealed or trails being established. Several applications of artificial intelligence (AI) have demonstrated interesting and promising solutions to seemingly intractable societal challenges. This thesis aims to advance the concept of applying AI techniques in digital forensic investigation. Our approach involves experimenting with a complex case scenario in which suspects corresponded by e-mail and deleted, suspiciously, certain communications, presumably to conceal evidence. The purpose is to demonstrate the efficacy of Artificial Neural Networks (ANN) in learning and detecting communication patterns over time, and then predicting the possibility of missing communication(s) along with potential topics of discussion. To do this, we developed a novel approach and included other existing models. The accuracy of our results is evaluated, and their performance on previously unseen data is measured. Second, we proposed conceptualizing the term “Digital Forensics AI” (DFAI) to formalize the application of AI in digital forensics. The objective is to highlight the instruments that facilitate the best evidential outcomes and presentation mechanisms that are adaptable to the probabilistic output of AI models. Finally, we enhanced our notion in support of the application of AI in digital forensics by recommending methodologies and approaches for bridging trust gaps through the development of interpretable models that facilitate the admissibility of digital evidence in legal proceedings.
Resumo:
The first topic analyzed in the thesis will be Neural Architecture Search (NAS). I will focus on two different tools that I developed, one to optimize the architecture of Temporal Convolutional Networks (TCNs), a convolutional model for time-series processing that has recently emerged, and one to optimize the data precision of tensors inside CNNs. The first NAS proposed explicitly targets the optimization of the most peculiar architectural parameters of TCNs, namely dilation, receptive field, and the number of features in each layer. Note that this is the first NAS that explicitly targets these networks. The second NAS proposed instead focuses on finding the most efficient data format for a target CNN, with the granularity of the layer filter. Note that applying these two NASes in sequence allows an "application designer" to minimize the structure of the neural network employed, minimizing the number of operations or the memory usage of the network. After that, the second topic described is the optimization of neural network deployment on edge devices. Importantly, exploiting edge platforms' scarce resources is critical for NN efficient execution on MCUs. To do so, I will introduce DORY (Deployment Oriented to memoRY) -- an automatic tool to deploy CNNs on low-cost MCUs. DORY, in different steps, can manage different levels of memory inside the MCU automatically, offload the computation workload (i.e., the different layers of a neural network) to dedicated hardware accelerators, and automatically generates ANSI C code that orchestrates off- and on-chip transfers with the computation phases. On top of this, I will introduce two optimized computation libraries that DORY can exploit to deploy TCNs and Transformers on edge efficiently. I conclude the thesis with two different applications on bio-signal analysis, i.e., heart rate tracking and sEMG-based gesture recognition.
Resumo:
Il principale motivo di ospedalizzazione del lattante è la bronchiolite acuta, causata in primis dal Virus Respiratorio Sinciziale (VRS). In questo ambito appaiono controversi i risultati in letteratura riguardo: carica del VRS, risposta immunitaria ed infiammatoria dell’ospite, microbiota del paziente (durante l’infezione e per successivo sviluppo di wheezing e asma). In questo studio di coorte prospettico monocentrico vengono arruolati lattanti peraltro sani ricoverati per primo episodio di bronchiolite acuta, da VRS o da altro agente, per valutare primariamente la relazione tra decorso clinico e carica del VRS, secondariamente l’associazione con specifiche composizioni e modifiche nel tempo del microbiota nasofaringeo ed intestinale durante la fase acuta e nel lungo termine in relazione a sviluppo di wheezing ricorrente. Nello studio sono stati arruolati finora 89 pazienti, di cui 68 con bronchiolite da VRS (76.4%), con analisi della carica virale su 41 lattanti (60.3%) e del microbiota su 20 (29.4%). L’analisi della carica del VRS non ha riscontrato associazione tra outcome di severità clinica quali necessità e durata di ossigenoterapia, nonché durata di ricovero. La presenza di trend di associazione tra carica virale all’ingresso e picco del VRS-RNA con necessità di ossigenoterapia ad alto flusso (HFNC) e l’associazione significativa di clearance di VRS con HFNC (p = 0.03) suggeriscono che la carica virale potrebbe influenzare la severità della bronchiolite da VRS. Le analisi del microbiota evidenziano numerosi genera mai descritti finora in letteratura a nostra conoscenza (es. Alloiococcus e Leptotrichia su aspirato, nonché tutti i dati emersi dallo studio della saliva, prima volta in letteratura) ed un generale aumento della diversity a 6 mesi dalla dimissione. Occorrerà completare l’analisi della carica del VRS con quella del sistema infiammatorio dell’ospite, nonché studiare il microbiota sui campioni del follow-up a lungo termine per la verifica di eventuali associazioni con sviluppo di wheezing e asma.
Resumo:
Big data and AI are paving the way to promising scenarios in clinical practice and research. However, the use of such technologies might clash with GDPR requirements. Today, two forces are driving the EU policies in this domain. The first is the necessity to protect individuals’ safety and fundamental rights. The second is to incentivize the deployment of innovative technologies. The first objective is pursued by legislative acts such as the GDPR or the AIA, the second is supported by the new data strategy recently launched by the European Commission. Against this background, the thesis analyses the issue of GDPR compliance when big data and AI systems are implemented in the health domain. The thesis focuses on the use of co-regulatory tools for compliance with the GDPR. This work argues that there are two level of co-regulation in the EU legal system. The first, more general, is the approach pursued by the EU legislator when shaping legislative measures that deal with fast-evolving technologies. The GDPR can be deemed a co-regulatory solution since it mainly introduces general requirements, which implementation shall then be interpretated by the addressee of the law following a risk-based approach. This approach, although useful is costly and sometimes burdensome for organisations. The second co-regulatory level is represented by specific co-regulatory tools, such as code of conduct and certification mechanisms. These tools are meant to guide and support the interpretation effort of the addressee of the law. The thesis argues that the lack of co-regulatory tools which are supposed to implement data protection law in specific situations could be an obstacle to the deployment of innovative solutions in complex scenario such as the health ecosystem. The thesis advances hypothesis on theoretical level about the reasons of such a lack of co-regulatory solutions.
Resumo:
The abundance of visual data and the push for robust AI are driving the need for automated visual sensemaking. Computer Vision (CV) faces growing demand for models that can discern not only what images "represent," but also what they "evoke." This is a demand for tools mimicking human perception at a high semantic level, categorizing images based on concepts like freedom, danger, or safety. However, automating this process is challenging due to entropy, scarcity, subjectivity, and ethical considerations. These challenges not only impact performance but also underscore the critical need for interoperability. This dissertation focuses on abstract concept-based (AC) image classification, guided by three technical principles: situated grounding, performance enhancement, and interpretability. We introduce ART-stract, a novel dataset of cultural images annotated with ACs, serving as the foundation for a series of experiments across four key domains: assessing the effectiveness of the end-to-end DL paradigm, exploring cognitive-inspired semantic intermediaries, incorporating cultural and commonsense aspects, and neuro-symbolic integration of sensory-perceptual data with cognitive-based knowledge. Our results demonstrate that integrating CV approaches with semantic technologies yields methods that surpass the current state of the art in AC image classification, outperforming the end-to-end deep vision paradigm. The results emphasize the role semantic technologies can play in developing both effective and interpretable systems, through the capturing, situating, and reasoning over knowledge related to visual data. Furthermore, this dissertation explores the complex interplay between technical and socio-technical factors. By merging technical expertise with an understanding of human and societal aspects, we advocate for responsible labeling and training practices in visual media. These insights and techniques not only advance efforts in CV and explainable artificial intelligence but also propel us toward an era of AI development that harmonizes technical prowess with deep awareness of its human and societal implications.
Resumo:
Riding the wave of recent groundbreaking achievements, artificial intelligence (AI) is currently the buzzword on everybody’s lips and, allowing algorithms to learn from historical data, Machine Learning (ML) emerged as its pinnacle. The multitude of algorithms, each with unique strengths and weaknesses, highlights the absence of a universal solution and poses a challenging optimization problem. In response, automated machine learning (AutoML) navigates vast search spaces within minimal time constraints. By lowering entry barriers, AutoML emerged as promising the democratization of AI, yet facing some challenges. In data-centric AI, the discipline of systematically engineering data used to build an AI system, the challenge of configuring data pipelines is rather simple. We devise a methodology for building effective data pre-processing pipelines in supervised learning as well as a data-centric AutoML solution for unsupervised learning. In human-centric AI, many current AutoML tools were not built around the user but rather around algorithmic ideas, raising ethical and social bias concerns. We contribute by deploying AutoML tools aiming at complementing, instead of replacing, human intelligence. In particular, we provide solutions for single-objective and multi-objective optimization and showcase the challenges and potential of novel interfaces featuring large language models. Finally, there are application areas that rely on numerical simulators, often related to earth observations, they tend to be particularly high-impact and address important challenges such as climate change and crop life cycles. We commit to coupling these physical simulators with (Auto)ML solutions towards a physics-aware AI. Specifically, in precision farming, we design a smart irrigation platform that: allows real-time monitoring of soil moisture, predicts future moisture values, and estimates water demand to schedule the irrigation.
Resumo:
Questa tesi è nata dal desiderio di capire qual è l’opinione dei genitori riguardo alla presenza di personaggi e tematiche LGBTQ+ nei libri per bambini e bambine. Al contrario di paesi come gli Stati Uniti, la Gran Bretagna e la Francia, in Italia i libri per bambini.e che affrontano il tema dell’orientamento sessuale e dell’identità di genere sono poco numerosi. Nonostante gli sforzi fatti da alcune case editrici e da diverse associazioni che già da tempo portano avanti dei progetti all’interno delle scuole italiane per educare alle differenze, tali tematiche incontrano ancora forti resistenze. La carenza di libri per l’infanzia a tematica LGBTQ+ e il fatto che il sistema educativo italiano non preveda la lettura di opere volte a educare i.le più piccoli.e al rispetto delle diversità sono in parte dovuti alla resistenza di ambienti e associazioni ultraconservatrici che denunciano la cosiddetta “teoria del gender”. Dopo aver tracciato un quadro dell'offerta editoriale europea e italiana su queste tematiche, l'elaborato si focalizza su una ricerca empirica basata su questionario anonimo. In particolare vengono approfondite l'elaborazione del questionario, centrato sull'opportunità (o meno) di leggere a scuola libri con personaggi LGBTQ+ e rivolto a genitori, e le difficoltà di somministrazione del questionario stesso. Infine è proposta un'analisi dei dati raccolti, analizzando le risposte fornite dai genitori che hanno partecipato.
Resumo:
Questa tesi di laurea compie uno studio sull’ utilizzo di tecniche di web crawling, web scraping e Natural Language Processing per costruire automaticamente un dataset di documenti e una knowledge base di coppie verbo-oggetto utilizzabile per la classificazione di testi. Dopo una breve introduzione sulle tecniche utilizzate verrà presentato il metodo di generazione, prima in forma teorica e generalizzabile a qualunque classificazione basata su un insieme di argomenti, e poi in modo specifico attraverso un caso di studio: il software SDG Detector. In particolare quest ultimo riguarda l’applicazione pratica del metodo esposto per costruire una raccolta di informazioni utili alla classificazione di documenti in base alla presenza di uno o più Sustainable Development Goals. La parte relativa alla classificazione è curata dal co-autore di questa applicazione, la presente invece si concentra su un’analisi di correttezza e performance basata sull’espansione del dataset e della derivante base di conoscenza.
Resumo:
Come si può evincere dal titolo, l'obbiettivo di questo elaborato è quello di studiare ed analizzare le copule, esponendo in un primo momento la loro teoria, e successivamente esaminando una particolare applicazione ai derivati meteorologici, nello specifico alla copertura dell'indice CAT. All'inizio del primo capitolo viene fornita la definizione di copula (nel caso bidimensionale) con le relative proprietà e viene enunciato il teorema di Sklar, spiegando la sua centralità nella teoria. In seguito vengono presentate le due famiglie di copule, ellittiche e Archimedee, spiegando in quale ambito vengono utilizzate per la modellizzazione delle dipendenze tra variabili aleatorie ed elencando gli esempi più importanti di ogni famiglia. Nel secondo capitolo viene analizzata l'applicazione delle copule nel prezzaggio di una copertura dell'indice CAT. Inizialmente viene presentato il funzionamento della copertura, ovvero come si costruisce l'indice e come viene calcolato il risarcimento. Infine si passa al calcolo del prezzo del derivato, mostrando come utilizzando le copule per includere nella modellizzazione le dipendenze tra le varie stazioni meteorologiche permetta di ottenere delle stime migliori rispetto a quelle calcolate considerando le stazioni indipendenti tra loro.
Resumo:
Questo lavoro si propone di implementare tre scenari di compromissione informatica tramite l'ausilio della strumentazione fornita da Ansible e Docker. Dopo una prima parte teorica di presentazione delle più recenti vulnerabilità/compromissioni informatiche, si passa all'illustrazione degli strumenti e dell'architettura degli scenari, anche tramite l'ausilio di codice. Tramite la funzione UNIX time si effettua l'analisi di diverse tecniche di distribuzione, dimostrando come l'automazione abbia effettivi e seri vantaggi rispetto ad una continua implementazione manuale, principalmente da un punto di vista temporale e computazionale.
Resumo:
Historia magistra vitae, scriveva Cicerone nel De Oratore; il passato deve insegnare a comprendere meglio il futuro. Un concetto che a primo acchito può sembrare confinato nell'ambito della filosofia e della letteratura, ma che ha invece applicazioni matematiche e fisiche di estrema importanza. Esistono delle tecniche che permettono, conoscendo il passato, di effettuare delle migliori stime del futuro? Esistono dei metodi che permettono, conoscendo il presente, di aggiornare le stime effettuate nel passato? Nel presente elaborato viene illustrato come argomento centrale il filtro di Kalman, un algoritmo ricorsivo che, dato un set di misure di una certa grandezza fino al tempo t, permette di calcolare il valore atteso di tale grandezza al tempo t+1, oltre alla varianza della relativa distribuzione prevista; permette poi, una volta effettuata la t+1-esima misura, di aggiornare di conseguenza valore atteso e varianza della distribuzione dei valori della grandezza in esame. Si è quindi applicato questo algoritmo, testandone l'efficacia, prima a dei casi fisici, quali il moto rettilineo uniforme, il moto uniformemente accelerato, l'approssimazione delle leggi orarie del moto e l'oscillatore armonico; poi, introducendo la teoria di Kendall conosciuta come ipotesi di random walk e costruendo un modello di asset pricing basato sui processi di Wiener, si è applicato il filtro di Kalman a delle serie storiche di rendimenti di strumenti di borsa per osservare se questi si muovessero effettivamente secondo un modello di random walk e per prevedere il valore al tempo finale dei titoli.
Resumo:
Il presente elaborato analizza il processo produttivo del vino Lambrusco, ripercorrendo la storia e la tecnica che hanno influenzato, e che comunque riguardano tuttora, il processo produttivo dei vini frizzanti a nome Lambrusco. In modo particolare analizza il percorso storico di evoluzione tecnica e tecnologica che ha maggiormente condizionato l’evoluzione di questo prodotto unico nel suo genere, descrivendo i processi produttivi maggiormente significativi, oltre ad approfondire alcuni argomenti di carattere enologico e microbiologico applicato di estrema attualità, che potranno essere utili per contrastare o mitigare le influenze sul prodotto dovute al cambiamento climatico, come il progressivo abbassamento delle acidità, l’innalzamento del grado alcolico e le sempre più frequenti alterazioni dei vini; così come per andare incontro alle tendenze di consumo del mercato, che richiede sempre di più vini freschi, morbidi e caratterizzati da una facile beva.