994 resultados para Apolipoprotéine AI


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il principale motivo di ospedalizzazione del lattante è la bronchiolite acuta, causata in primis dal Virus Respiratorio Sinciziale (VRS). In questo ambito appaiono controversi i risultati in letteratura riguardo: carica del VRS, risposta immunitaria ed infiammatoria dell’ospite, microbiota del paziente (durante l’infezione e per successivo sviluppo di wheezing e asma). In questo studio di coorte prospettico monocentrico vengono arruolati lattanti peraltro sani ricoverati per primo episodio di bronchiolite acuta, da VRS o da altro agente, per valutare primariamente la relazione tra decorso clinico e carica del VRS, secondariamente l’associazione con specifiche composizioni e modifiche nel tempo del microbiota nasofaringeo ed intestinale durante la fase acuta e nel lungo termine in relazione a sviluppo di wheezing ricorrente. Nello studio sono stati arruolati finora 89 pazienti, di cui 68 con bronchiolite da VRS (76.4%), con analisi della carica virale su 41 lattanti (60.3%) e del microbiota su 20 (29.4%). L’analisi della carica del VRS non ha riscontrato associazione tra outcome di severità clinica quali necessità e durata di ossigenoterapia, nonché durata di ricovero. La presenza di trend di associazione tra carica virale all’ingresso e picco del VRS-RNA con necessità di ossigenoterapia ad alto flusso (HFNC) e l’associazione significativa di clearance di VRS con HFNC (p = 0.03) suggeriscono che la carica virale potrebbe influenzare la severità della bronchiolite da VRS. Le analisi del microbiota evidenziano numerosi genera mai descritti finora in letteratura a nostra conoscenza (es. Alloiococcus e Leptotrichia su aspirato, nonché tutti i dati emersi dallo studio della saliva, prima volta in letteratura) ed un generale aumento della diversity a 6 mesi dalla dimissione. Occorrerà completare l’analisi della carica del VRS con quella del sistema infiammatorio dell’ospite, nonché studiare il microbiota sui campioni del follow-up a lungo termine per la verifica di eventuali associazioni con sviluppo di wheezing e asma.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Big data and AI are paving the way to promising scenarios in clinical practice and research. However, the use of such technologies might clash with GDPR requirements. Today, two forces are driving the EU policies in this domain. The first is the necessity to protect individuals’ safety and fundamental rights. The second is to incentivize the deployment of innovative technologies. The first objective is pursued by legislative acts such as the GDPR or the AIA, the second is supported by the new data strategy recently launched by the European Commission. Against this background, the thesis analyses the issue of GDPR compliance when big data and AI systems are implemented in the health domain. The thesis focuses on the use of co-regulatory tools for compliance with the GDPR. This work argues that there are two level of co-regulation in the EU legal system. The first, more general, is the approach pursued by the EU legislator when shaping legislative measures that deal with fast-evolving technologies. The GDPR can be deemed a co-regulatory solution since it mainly introduces general requirements, which implementation shall then be interpretated by the addressee of the law following a risk-based approach. This approach, although useful is costly and sometimes burdensome for organisations. The second co-regulatory level is represented by specific co-regulatory tools, such as code of conduct and certification mechanisms. These tools are meant to guide and support the interpretation effort of the addressee of the law. The thesis argues that the lack of co-regulatory tools which are supposed to implement data protection law in specific situations could be an obstacle to the deployment of innovative solutions in complex scenario such as the health ecosystem. The thesis advances hypothesis on theoretical level about the reasons of such a lack of co-regulatory solutions.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The abundance of visual data and the push for robust AI are driving the need for automated visual sensemaking. Computer Vision (CV) faces growing demand for models that can discern not only what images "represent," but also what they "evoke." This is a demand for tools mimicking human perception at a high semantic level, categorizing images based on concepts like freedom, danger, or safety. However, automating this process is challenging due to entropy, scarcity, subjectivity, and ethical considerations. These challenges not only impact performance but also underscore the critical need for interoperability. This dissertation focuses on abstract concept-based (AC) image classification, guided by three technical principles: situated grounding, performance enhancement, and interpretability. We introduce ART-stract, a novel dataset of cultural images annotated with ACs, serving as the foundation for a series of experiments across four key domains: assessing the effectiveness of the end-to-end DL paradigm, exploring cognitive-inspired semantic intermediaries, incorporating cultural and commonsense aspects, and neuro-symbolic integration of sensory-perceptual data with cognitive-based knowledge. Our results demonstrate that integrating CV approaches with semantic technologies yields methods that surpass the current state of the art in AC image classification, outperforming the end-to-end deep vision paradigm. The results emphasize the role semantic technologies can play in developing both effective and interpretable systems, through the capturing, situating, and reasoning over knowledge related to visual data. Furthermore, this dissertation explores the complex interplay between technical and socio-technical factors. By merging technical expertise with an understanding of human and societal aspects, we advocate for responsible labeling and training practices in visual media. These insights and techniques not only advance efforts in CV and explainable artificial intelligence but also propel us toward an era of AI development that harmonizes technical prowess with deep awareness of its human and societal implications.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Riding the wave of recent groundbreaking achievements, artificial intelligence (AI) is currently the buzzword on everybody’s lips and, allowing algorithms to learn from historical data, Machine Learning (ML) emerged as its pinnacle. The multitude of algorithms, each with unique strengths and weaknesses, highlights the absence of a universal solution and poses a challenging optimization problem. In response, automated machine learning (AutoML) navigates vast search spaces within minimal time constraints. By lowering entry barriers, AutoML emerged as promising the democratization of AI, yet facing some challenges. In data-centric AI, the discipline of systematically engineering data used to build an AI system, the challenge of configuring data pipelines is rather simple. We devise a methodology for building effective data pre-processing pipelines in supervised learning as well as a data-centric AutoML solution for unsupervised learning. In human-centric AI, many current AutoML tools were not built around the user but rather around algorithmic ideas, raising ethical and social bias concerns. We contribute by deploying AutoML tools aiming at complementing, instead of replacing, human intelligence. In particular, we provide solutions for single-objective and multi-objective optimization and showcase the challenges and potential of novel interfaces featuring large language models. Finally, there are application areas that rely on numerical simulators, often related to earth observations, they tend to be particularly high-impact and address important challenges such as climate change and crop life cycles. We commit to coupling these physical simulators with (Auto)ML solutions towards a physics-aware AI. Specifically, in precision farming, we design a smart irrigation platform that: allows real-time monitoring of soil moisture, predicts future moisture values, and estimates water demand to schedule the irrigation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questa tesi è nata dal desiderio di capire qual è l’opinione dei genitori riguardo alla presenza di personaggi e tematiche LGBTQ+ nei libri per bambini e bambine. Al contrario di paesi come gli Stati Uniti, la Gran Bretagna e la Francia, in Italia i libri per bambini.e che affrontano il tema dell’orientamento sessuale e dell’identità di genere sono poco numerosi. Nonostante gli sforzi fatti da alcune case editrici e da diverse associazioni che già da tempo portano avanti dei progetti all’interno delle scuole italiane per educare alle differenze, tali tematiche incontrano ancora forti resistenze. La carenza di libri per l’infanzia a tematica LGBTQ+ e il fatto che il sistema educativo italiano non preveda la lettura di opere volte a educare i.le più piccoli.e al rispetto delle diversità sono in parte dovuti alla resistenza di ambienti e associazioni ultraconservatrici che denunciano la cosiddetta “teoria del gender”. Dopo aver tracciato un quadro dell'offerta editoriale europea e italiana su queste tematiche, l'elaborato si focalizza su una ricerca empirica basata su questionario anonimo. In particolare vengono approfondite l'elaborazione del questionario, centrato sull'opportunità (o meno) di leggere a scuola libri con personaggi LGBTQ+ e rivolto a genitori, e le difficoltà di somministrazione del questionario stesso. Infine è proposta un'analisi dei dati raccolti, analizzando le risposte fornite dai genitori che hanno partecipato.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questa tesi di laurea compie uno studio sull’ utilizzo di tecniche di web crawling, web scraping e Natural Language Processing per costruire automaticamente un dataset di documenti e una knowledge base di coppie verbo-oggetto utilizzabile per la classificazione di testi. Dopo una breve introduzione sulle tecniche utilizzate verrà presentato il metodo di generazione, prima in forma teorica e generalizzabile a qualunque classificazione basata su un insieme di argomenti, e poi in modo specifico attraverso un caso di studio: il software SDG Detector. In particolare quest ultimo riguarda l’applicazione pratica del metodo esposto per costruire una raccolta di informazioni utili alla classificazione di documenti in base alla presenza di uno o più Sustainable Development Goals. La parte relativa alla classificazione è curata dal co-autore di questa applicazione, la presente invece si concentra su un’analisi di correttezza e performance basata sull’espansione del dataset e della derivante base di conoscenza.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Come si può evincere dal titolo, l'obbiettivo di questo elaborato è quello di studiare ed analizzare le copule, esponendo in un primo momento la loro teoria, e successivamente esaminando una particolare applicazione ai derivati meteorologici, nello specifico alla copertura dell'indice CAT. All'inizio del primo capitolo viene fornita la definizione di copula (nel caso bidimensionale) con le relative proprietà e viene enunciato il teorema di Sklar, spiegando la sua centralità nella teoria. In seguito vengono presentate le due famiglie di copule, ellittiche e Archimedee, spiegando in quale ambito vengono utilizzate per la modellizzazione delle dipendenze tra variabili aleatorie ed elencando gli esempi più importanti di ogni famiglia. Nel secondo capitolo viene analizzata l'applicazione delle copule nel prezzaggio di una copertura dell'indice CAT. Inizialmente viene presentato il funzionamento della copertura, ovvero come si costruisce l'indice e come viene calcolato il risarcimento. Infine si passa al calcolo del prezzo del derivato, mostrando come utilizzando le copule per includere nella modellizzazione le dipendenze tra le varie stazioni meteorologiche permetta di ottenere delle stime migliori rispetto a quelle calcolate considerando le stazioni indipendenti tra loro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questo lavoro si propone di implementare tre scenari di compromissione informatica tramite l'ausilio della strumentazione fornita da Ansible e Docker. Dopo una prima parte teorica di presentazione delle più recenti vulnerabilità/compromissioni informatiche, si passa all'illustrazione degli strumenti e dell'architettura degli scenari, anche tramite l'ausilio di codice. Tramite la funzione UNIX time si effettua l'analisi di diverse tecniche di distribuzione, dimostrando come l'automazione abbia effettivi e seri vantaggi rispetto ad una continua implementazione manuale, principalmente da un punto di vista temporale e computazionale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Historia magistra vitae, scriveva Cicerone nel De Oratore; il passato deve insegnare a comprendere meglio il futuro. Un concetto che a primo acchito può sembrare confinato nell'ambito della filosofia e della letteratura, ma che ha invece applicazioni matematiche e fisiche di estrema importanza. Esistono delle tecniche che permettono, conoscendo il passato, di effettuare delle migliori stime del futuro? Esistono dei metodi che permettono, conoscendo il presente, di aggiornare le stime effettuate nel passato? Nel presente elaborato viene illustrato come argomento centrale il filtro di Kalman, un algoritmo ricorsivo che, dato un set di misure di una certa grandezza fino al tempo t, permette di calcolare il valore atteso di tale grandezza al tempo t+1, oltre alla varianza della relativa distribuzione prevista; permette poi, una volta effettuata la t+1-esima misura, di aggiornare di conseguenza valore atteso e varianza della distribuzione dei valori della grandezza in esame. Si è quindi applicato questo algoritmo, testandone l'efficacia, prima a dei casi fisici, quali il moto rettilineo uniforme, il moto uniformemente accelerato, l'approssimazione delle leggi orarie del moto e l'oscillatore armonico; poi, introducendo la teoria di Kendall conosciuta come ipotesi di random walk e costruendo un modello di asset pricing basato sui processi di Wiener, si è applicato il filtro di Kalman a delle serie storiche di rendimenti di strumenti di borsa per osservare se questi si muovessero effettivamente secondo un modello di random walk e per prevedere il valore al tempo finale dei titoli.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente elaborato analizza il processo produttivo del vino Lambrusco, ripercorrendo la storia e la tecnica che hanno influenzato, e che comunque riguardano tuttora, il processo produttivo dei vini frizzanti a nome Lambrusco. In modo particolare analizza il percorso storico di evoluzione tecnica e tecnologica che ha maggiormente condizionato l’evoluzione di questo prodotto unico nel suo genere, descrivendo i processi produttivi maggiormente significativi, oltre ad approfondire alcuni argomenti di carattere enologico e microbiologico applicato di estrema attualità, che potranno essere utili per contrastare o mitigare le influenze sul prodotto dovute al cambiamento climatico, come il progressivo abbassamento delle acidità, l’innalzamento del grado alcolico e le sempre più frequenti alterazioni dei vini; così come per andare incontro alle tendenze di consumo del mercato, che richiede sempre di più vini freschi, morbidi e caratterizzati da una facile beva.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nel primo punto del capitolo seguente si propone una panoramica sulla decarbonizzazione del settore energetico e si discutono i principali provvedimenti europei avviati a tal fine. Si analizza lo scenario energetico italiano e le sue prospettive future; anche l’Italia deve impegnarsi in termini di energie rinnovabili e riduzione dei gas serra. Nel settore energetico nazionale sono comprese la produzione, la trasformazione e l’utilizzo di energia elettrica. In questa fase in particolare, si studiano i dati relativi alla fase di produzione. Inoltre, si studia la dipendenza energetica dell’Italia dalle fonti fossili estere. Di seguito saranno analizzati i piani energetici auspicabili per il 2030 e per il 2050. Nel secondo punto si passa poi all’analisi dei consumi, attraverso lo studio dei consumi medi e l’approfondimento sui consumi dei principali elettrodomestici. Nella prima sezione del capito che segue vengono analizzati i principali sistemi di accumulo di energia domestica con particolare enfasi riguardo i limiti applicativi. Le batterie a litio seppur relativamente economiche hanno un forte impatto ambientale che sarebbe ammortizzato utilizzando un nuovo modello di volano (MechSTOR). Nella seconda parte del capitolo, si esamina invece la fattibilità del modello di accumulo a volano. I costi del volano verrebbero ammortizzati dal guadagno relativo all’immissione in rete di energia elettrica? L’analisi in Simulink ha permesso di lavorare con i segnali di potenza, utilizzando le curve di carico domestico e la curva di produzione fotovoltaica al fine di studiare la convenienza economica della batteria a volano.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’istruzione superiore in Europa è stata oggetto di un significativo processo di riforma: è aumentato l’interesse per un modello di apprendimento intorno ai progetti, centrato sullo studente, che favorisse lo sviluppo di competenze trasversali – il project-based learning (PBL). Inserire il PBL nelle Università richiede un processo di innovazione didattica: il curriculum di un corso PBL e le competenze richieste all’insegnante si differenziano dall’apprendimento tradizionale. Senza un'adeguata attenzione ai metodi di supporto per insegnanti e studenti, questi approcci innovativi non saranno ampiamente adottati. L’obiettivo di questo studio è determinare in che modo sia possibile implementare un corso PBL non presenziato da figure esperte di PBL. Le domande della ricerca sono: è possibile implementare efficacemente un approccio PBL senza il coinvolgimento di esperti dei metodi di progettazione? come si declinano i ruoli della facilitazione secondo questa configurazione: come si definisce il ruolo di tutor d’aula? come rafforzare il supporto per l’implementazione del corso? Per rispondere alle domande di ricerca è stata utilizzata la metodologia AIM-R. Viene presentata la prima iterazione dell’implementazione di un corso di questo tipo, durante la quale sono state svolte attività di ricerca e raccolta dati. L’attività di facilitazione è affidata a tre figure diverse: docente, tutor d’aula e coach professionisti. Su questa base, sono stati definiti gli elementi costituenti un kit di materiale a supporto per l’implementazione di corsi PBL. Oltre a un set di documenti e strumenti condivisi, sono stati elaborati i vademecum per guidare studenti, tutor e docenti all’implementazione di questo tipo di corsi. Ricerche future dovranno essere volte a identificare fattori aggiuntivi che rendano applicabile il kit di supporto per corsi basati su un modello diverso dal Tech to Market o che utilizzino strumenti di progettazione diversi da quelli proposti durante la prima iterazione.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tesi riguarda la descrizione di un percorso didattico, dalla sua fase di progettazione, alla sua fase di realizzazione, fino alla descrizione degli effetti osservati nel gruppo classe in cui tale percorso didattico è stato svolto. In particolare, tale percorso ha come obiettivo generale quello di introdurre all’esistenza dei problemi di minimo attraverso un laboratorio matematico che sfrutti le bolle di sapone, e l’acqua saponata in generale, per mostrare esempi di fenomeni di minimo. L’obiettivo è quello di mostrare le dinamiche che sono avvenute durante la realizzazione del percorso didattico dato il contesto specifico in cui tale percorso è stato svolto. Si conclude affermando che questo percorso didattico sia riuscito nel suo intento di motivare e interessare gli studenti della classe all’argomento. Inoltre, gli studenti più interessati hanno avuto modo di approfondire molto l’argomento, mentre gli altri studenti, nonostante si siano fermati ad una comprensione molto più generale e approssimativa, hanno avuto modo di sviluppare e mettere in pratica quelle che sono le loro inclinazioni personali, pur non aventi queste a che fare con la matematica o la fisica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El Niño South Oscillation (ENSO) is one climatic phenomenon related to the inter-annual variability of global meteorological patterns influencing sea surface temperature and rainfall variability. It influences human health indirectly through extreme temperature and moisture conditions that may accelerate the spread of some vector-borne viral diseases, like dengue fever (DF). This work examines the spatial distribution of association between ENSO and DF in the countries of the Americas during 1995-2004, which includes the 1997-1998 El Niño, one of the most important climatic events of 20(th) century. Data regarding the South Oscillation index (SOI), indicating El Niño-La Niña activity, were obtained from Australian Bureau of Meteorology. The annual DF incidence (AIy) by country was computed using Pan-American Health Association data. SOI and AIy values were standardised as deviations from the mean and plotted in bars-line graphics. The regression coefficient values between SOI and AIy (rSOI,AI) were calculated and spatially interpolated by an inverse distance weighted algorithm. The results indicate that among the five years registering high number of cases (1998, 2002, 2001, 2003 and 1997), four had El Niño activity. In the southern hemisphere, the annual spatial weighted mean centre of epidemics moved southward, from 6° 31' S in 1995 to 21° 12' S in 1999 and the rSOI,AI values were negative in Cuba, Belize, Guyana and Costa Rica, indicating a synchrony between higher DF incidence rates and a higher El Niño activity. The rSOI,AI map allows visualisation of a graded surface with higher values of ENSO-DF associations for Mexico, Central America, northern Caribbean islands and the extreme north-northwest of South America.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

There is an urgent need to make drug discovery cheaper and faster. This will enable the development of treatments for diseases currently neglected for economic reasons, such as tropical and orphan diseases, and generally increase the supply of new drugs. Here, we report the Robot Scientist 'Eve' designed to make drug discovery more economical. A Robot Scientist is a laboratory automation system that uses artificial intelligence (AI) techniques to discover scientific knowledge through cycles of experimentation. Eve integrates and automates library-screening, hit-confirmation, and lead generation through cycles of quantitative structure activity relationship learning and testing. Using econometric modelling we demonstrate that the use of AI to select compounds economically outperforms standard drug screening. For further efficiency Eve uses a standardized form of assay to compute Boolean functions of compound properties. These assays can be quickly and cheaply engineered using synthetic biology, enabling more targets to be assayed for a given budget. Eve has repositioned several drugs against specific targets in parasites that cause tropical diseases. One validated discovery is that the anti-cancer compound TNP-470 is a potent inhibitor of dihydrofolate reductase from the malaria-causing parasite Plasmodium vivax.