1000 resultados para DSS, Supporto decisioni, Sistemi Intelligenti, Ricerca Operativa
Resumo:
Introduction. Glycomic analysis allows investigating on the global glycome within body fluids (as serum/plasma), this could eventually lead to identify new types of disease biomarkers, or as in this study, biomarkers of human aging studying specific aging models. Recent studies demonstrated that the plasma N-glycome is modified during human aging, suggesting that measurements of log-ratio of two serum/plasma N-glycans (NGA2F and NA2F), named GlycoAge test could provide a non-invasive biomarker of aging. Down syndrome (DS) is a genetic disorder in which multiple major aspects of senescent phenotype occur much earlier than in healthy age-matched subjects and has been often defined as an accelerated aging syndrome. The aim of this study was to compare plasma N-glycome of patients affected by DS with age- and sex matched non-affected controls, represented by their siblings (DSS), in order to assess if DS is characterized by a specific N-glycomic pattern. Therefore, in order to investigate if N-glycans changes that occur in DS were able to reveal an accelerated aging in DS patients, we enrolled the mothers (DSM) of the DS and DSS, representing the non-affected control group with a different chronological age respect to DS. We applied two different N-glycomics approaches on the same samples: first, in order to study the complete plasma N-glycome we applied a new high-sensitive protocol based on a MALDI-TOF-MS approach, second, we used DSA-FACE technology. Results: MALDI-TOF/MS analysis detected a specific N-glycomics signature for DS, characterized by an increase of fucosylated and bisecting species. Moreover, in DS the abundance of agalactosylated (as NA2F) species was similar or higher than their mothers. The measurement of GlycoAge test with DSA-FACE, validated also by MALDI-TOF, demonstrated a strongly association with age, moreover in DS, it’s value was similar to their mothers, and significantly higher than their age- and sex matched not-affected siblings
Resumo:
With the increasing importance that nanotechnologies have in everyday life, it is not difficult to realize that also a single molecule, if properly designed, can be a device able to perform useful functions: such a chemical species is called chemosensor, that is a molecule of abiotic origin that signals the presence of matter or energy. Signal transduction is the mechanism by which an interaction of a sensor with an analyte yields a measurable form of energy. When dealing with the design of a chemosensor, we need to take into account a “communication requirement” between its three component: the receptor unit, responsible for the selective analyte binding, the spacer, which controls the geometry of the system and modulates the electronic interaction between the receptor and the signalling unit, whose physico-chemical properties change upon complexation. A luminescent chemosensor communicates a variation of the physico-chemical properties of the receptor unit with a luminescence output signal. This thesis work consists in the characterization of new molecular and nanoparticle-based system which can be used as sensitive materials for the construction of new optical transduction devices able to provide information about the concentration of analytes in solution. In particular two direction were taken. The first is to continue in the development of new chemosensors, that is the first step for the construction of reliable and efficient devices, and in particular the work will be focused on chemosensors for metal ions for biomedical and environmental applications. The second is to study more efficient and complex organized systems, such as derivatized silica nanoparticles. These system can potentially have higher sensitivity than molecular systems, and present many advantages, like the possibility to be ratiometric, higher Stokes shifts and lower signal-to-noise ratio.
Resumo:
This thesis aimed at addressing some of the issues that, at the state of the art, avoid the P300-based brain computer interface (BCI) systems to move from research laboratories to end users’ home. An innovative asynchronous classifier has been defined and validated. It relies on the introduction of a set of thresholds in the classifier, and such thresholds have been assessed considering the distributions of score values relating to target, non-target stimuli and epochs of voluntary no-control. With the asynchronous classifier, a P300-based BCI system can adapt its speed to the current state of the user and can automatically suspend the control when the user diverts his attention from the stimulation interface. Since EEG signals are non-stationary and show inherent variability, in order to make long-term use of BCI possible, it is important to track changes in ongoing EEG activity and to adapt BCI model parameters accordingly. To this aim, the asynchronous classifier has been subsequently improved by introducing a self-calibration algorithm for the continuous and unsupervised recalibration of the subjective control parameters. Finally an index for the online monitoring of the EEG quality has been defined and validated in order to detect potential problems and system failures. This thesis ends with the description of a translational work involving end users (people with amyotrophic lateral sclerosis-ALS). Focusing on the concepts of the user centered design approach, the phases relating to the design, the development and the validation of an innovative assistive device have been described. The proposed assistive technology (AT) has been specifically designed to meet the needs of people with ALS during the different phases of the disease (i.e. the degree of motor abilities impairment). Indeed, the AT can be accessed with several input devices either conventional (mouse, touchscreen) or alterative (switches, headtracker) up to a P300-based BCI.
Resumo:
Per Viollet-le-Duc lo “stile” «è la manifestazione di un ideale fondato su un principio» dove per principio si intende il principio d’ordine della struttura, quest’ultimo deve rispondere direttamente alla Legge dell’”unità” che deve essere sempre rispettata nell’ideazione dell’opera architettonica. A partire da questo nodo centrale del pensiero viollettiano, la presente ricerca si è posta come obiettivo quello dell’esplorazione dei legami fra teoria e prassi nell’opera di Viollet-le-Duc, nei quali lo “stile” ricorre come un "fil rouge" costante, presentandosi come una possibile inedita chiave di lettura di questa figura protagonista della storia del restauro e dell’architettura dell’Ottocento. Il lavoro di ricerca si é dunque concentrato su una nuova lettura dei documenti sia editi che inediti, oltre che su un’accurata ricognizione bibliografica e documentaria, e sullo studio diretto delle architetture. La ricerca archivistica si é dedicata in particolare sull’analisi sistematica dei disegni originali di progetto e delle relazioni tecniche delle opere di Viollet-le- Duc. A partire da questa prima ricognizione, sono stati selezionati due casi- studio ritenuti particolarmente significativi nell’ambito della tematica scelta: il progetto di restauro della chiesa della Madeleine a Vézelay (1840-1859) e il progetto della Maison Milon in rue Douai a Parigi (1857-1860). Attraverso il parallelo lavoro di analisi dei casi-studio e degli scritti di Viollet- le-Duc, si è cercato di verificare le possibili corrispondenze tra teoria e prassi operativa: confrontando i progetti sia con le opere teoriche, sia con la concreta testimonianza degli edifici realizzati.
Resumo:
Studio e sistemi per la realizzazione di fotografie aeree tramite un velivolo comandato da pilota remoto
Resumo:
La messa a punto di tecniche come il patch clamp e la creazione di doppi strati lipidici artificiali (artificial bilayers) ha permesso di effettuare studi su canali ionici per valutarne la permeabilità, la selettività ionica, la dipendenza dal voltaggio e la cinetica, sia in ambito di ricerca, per analizzarne il funzionamento specifico, sia in quello farmaceutico, per studiare la risposta cellulare a nuovi farmaci prodotti. Tali tecniche possono essere inoltre impiegate nella realizzazione di biosensori, combinando così i vantaggi di specificità e sensibilità dei sistemi biologici alla veloce risposta quantitativa degli strumenti elettrochimici. I segnali in corrente che vengono rilevati con questi metodi sono dell’ordine dei pA e richiedono perciò l’utilizzo di strumentazioni molto costose e ingombranti per amplificarli, analizzarli ed elaborarli correttamente. Il gruppo di ricerca afferente al professor Tartagni della facoltà di ingegneria di Cesena ha sviluppato un sistema miniaturizzato che possiede molte delle caratteristiche richieste per questi studi. L’obiettivo della tesi riguarda la caratterizzazione sperimentale di tale sistema con prove di laboratorio eseguite in uno spazio ridotto e senza l’impiego di ulteriori strumentazioni ad eccezione del PC. In particolare le prove effettuate prevedono la realizzazione di membrane lipidiche artificiali seguita dall’inserimento e dallo studio del comportamento di due particolari canali ionici comunemente utilizzati per questa tipologia di studi: la gramicidina A, per la facilità d’inserimento nella membrana e per la bassa conduttanza del singolo canale, e l’α-emolisina, per l’attuale impiego nella progettazione e realizzazione di biosensori. Il presente lavoro si sviluppa in quattro capitoli di seguito brevemente riassunti. Nel primo vengono illustrate la struttura e le funzioni svolte dalla membrana cellulare, rivolgendo particolare attenzione ai fosfolipidi e alle proteine di membrana; viene inoltre descritta la struttura dei canali ionici utilizzati per gli esperimenti. Il secondo capitolo comprende una descrizione del metodo utilizzato per realizzare i doppi strati lipidici artificiali, con riferimento all’analogo elettrico che ne risulta, ed una presentazione della strumentazione utilizzata per le prove di laboratorio. Il terzo e il quarto capitolo sono dedicati all’elaborazione dei dati raccolti sperimentalmente: in particolare vengono prima analizzati quelli specifici dell’amplificatore, quali quelli inerenti il rumore che si somma al segnale utile da analizzare e la variabilità inter-prototipo, successivamente si studiano le prestazioni dell’amplificatore miniaturizzato in reali condizioni sperimentali e dopo aver inserito i canali proteici all’interno dei bilayers lipidici.
Resumo:
Si è scelto di analizzare in modo approfondito tecniche di copertura radio e di trasmissione basate sull’uso di array di antenne ( facenti parte della famiglia Multiple Input Multiple Output, MIMO) in alcune tipologie tipiche di scenari indoor, come ad esempio ambienti commerciali o uffici in strutture multipiano. Si è studiato l’utilizzo di array di antenne di varie tipologie e a varie frequenze per implementare tecniche di diversità oppure tecniche a divisione di spazio (beam-switching, beamforming) per servire contemporaneamente utenti in diverse celle o in diversi settori senza ricorrere ad altre tecniche di divisione (di frequenza, tempo o codice), che invece verranno utilizzate in conbinazione combinate in sistemi di futura generazione.
Resumo:
Automatically recognizing faces captured under uncontrolled environments has always been a challenging topic in the past decades. In this work, we investigate cohort score normalization that has been widely used in biometric verification as means to improve the robustness of face recognition under challenging environments. In particular, we introduce cohort score normalization into undersampled face recognition problem. Further, we develop an effective cohort normalization method specifically for the unconstrained face pair matching problem. Extensive experiments conducted on several well known face databases demonstrate the effectiveness of cohort normalization on these challenging scenarios. In addition, to give a proper understanding of cohort behavior, we study the impact of the number and quality of cohort samples on the normalization performance. The experimental results show that bigger cohort set size gives more stable and often better results to a point before the performance saturates. And cohort samples with different quality indeed produce different cohort normalization performance. Recognizing faces gone after alterations is another challenging problem for current face recognition algorithms. Face image alterations can be roughly classified into two categories: unintentional (e.g., geometrics transformations introduced by the acquisition devide) and intentional alterations (e.g., plastic surgery). We study the impact of these alterations on face recognition accuracy. Our results show that state-of-the-art algorithms are able to overcome limited digital alterations but are sensitive to more relevant modifications. Further, we develop two useful descriptors for detecting those alterations which can significantly affect the recognition performance. In the end, we propose to use the Structural Similarity (SSIM) quality map to detect and model variations due to plastic surgeries. Extensive experiments conducted on a plastic surgery face database demonstrate the potential of SSIM map for matching face images after surgeries.
Resumo:
Lo studio presentato in questa sede concerne applicazioni di saldatura LASER caratterizzate da aspetti di non-convenzionalità ed è costituito da tre filoni principali. Nel primo ambito di intervento è stata valutata la possibilità di effettuare saldature per fusione, con LASER ad emissione continua, su pannelli Aluminum Foam Sandwich e su tubi riempiti in schiuma di alluminio. Lo studio ha messo in evidenza numerose linee operative riguardanti le problematiche relative alla saldatura delle pelli esterne dei componenti ed ha dimostrato la fattibilità relativa ad un approccio di giunzione LASER integrato (saldatura seguita da un post trattamento termico) per la realizzazione della giunzione completa di particolari tubolari riempiti in schiuma con ripristino della struttura cellulare all’interfaccia di giunzione. Il secondo ambito di intervento è caratterizzato dall’applicazione di una sorgente LASER di bassissima potenza, operante in regime ad impulsi corti, nella saldatura di acciaio ad elevato contenuto di carbonio. Lo studio ha messo in evidenza come questo tipo di sorgente, solitamente applicata per lavorazioni di ablazione e marcatura, possa essere applicata anche alla saldatura di spessori sub-millimetrici. In questa fase è stato messo in evidenza il ruolo dei parametri di lavoro sulla conformazione del giunto ed è stata definita l’area di fattibilità del processo. Lo studio è stato completato investigando la possibilità di applicare un trattamento LASER dopo saldatura per addolcire le eventuali zone indurite. In merito all’ultimo ambito di intervento l’attività di studio si è focalizzata sull’utilizzo di sorgenti ad elevata densità di potenza (60 MW/cm^2) nella saldatura a profonda penetrazione di acciai da costruzione. L’attività sperimentale e di analisi dei risultati è stata condotta mediante tecniche di Design of Experiment per la valutazione del ruolo preciso di tutti i parametri di processo e numerose considerazioni relative alla formazione di cricche a caldo sono state suggerite.
Resumo:
Il lavoro di tesi nasce con l'intento di realizzare un'analisi unitaria della tematica dei ragazzi selvaggi al fine di evidenziare il valore e le ripercussioni di quanto oggigiorno può emergere dal portare avanti lo studio dei ragazzi selvaggi da una prospettiva pedagogico-educativa. L’espressione ragazzo selvaggio viene tradizionalmente usata per riferirsi a quei bambini/e cresciuti per un lungo periodo in compagnia di animali o in luoghi isolati. Nel corso del tempo altre accezioni sono comparse e l’utilizzo di tale espressione ha assunto significati diversi in base ai contesti di riferimento e alle eventuali connessioni con la tematica del selvaggio in generale. Questa tematica si colloca al crocevia tra più aree di ricerca; gli incroci sono come territori di confine, luoghi in cui è facile smarrirsi, ma sono anche luoghi di incontro, di confronto, di scambio, luoghi che conducono a nuova conoscenza. Affrontare, come in questo caso, un argomento di ricerca ricco di aspetti analizzabili da più punti di vista, implica la necessità di riferirsi a più prospettive d'indagine e di rapportarsi con differenti ambiti di studio. Ciò non deve però tradursi in un’inclusione indistinta e giustapponente delle diverse letture del fenomeno e degli elementi connessi alla ricerca. Il presente lavoro cerca pertanto di adottare un orientamento olistico alla tematica dei ragazzi selvaggi avvalendosi di uno sguardo di matrice pedagogico-educativa. L’obiettivo generale della ricerca si articola in tre sotto-obiettivi, identificabili nello specifico come: - realizzare un’analisi del fenomeno dei ragazzi selvaggi che metta in luce gli apporti della tematica all’evoluzione della storia della pedagogia; - far emergere ed evidenziare le connessioni della tematica a problematiche educative attualmente rilevanti ed oggetto del dibattito pedagogico contemporaneo; - analizzare i punti di contatto tra le ricerche sui feral children e le evidenze emerse dagli studi in campo neuroscientifico.