952 resultados para Analisi Discriminante, Teoria dei Network, Cross-Validation, Validazione.
Resumo:
Poster presented at the First International Congress of CiiEM - From Basic Sciences To Clinical Research. Egas Moniz, Caparica, Portugal, 27-28 November 2015.
Resumo:
The aim of this paper was to obtain evidence of the validity of the LSB-50 (de Rivera & Abuín, 2012), a screening measure of psychopathology, in Argentinean adolescents. The sample consisted of 1002 individuals (49.7% male; 50.3% female) between 12 and 18 years-old (M = 14.98; SD = 1.99). A cross-validation study and factorial invariance studies were performed in samples divided by sex and age to test if a seven-factor structure that corresponds to seven clinical scales (Hypersensitivity, Obsessive-Compulsive, Anxiety, Hostility, Somatization, Depression, and Sleep disturbance) was adequate for the LSB-50. The seven-factor structure proved to be suitable for all the subsamples. Next, the fit of the seven-factor structure was studied simultaneously? in the aforementioned subsamples through hierarchical models that imposed different constrains of equivalency?. Results indicated the invariance of the seven clinical dimensions of the LSB-50. Ordinal alphas showed good internal consistency for all the scales. Finally, the correlations with a diagnostic measure of psychopathology (PAI-A) indicated moderate convergence. It is concluded that the analyses performed provide robust evidence of construct validity for the LSB-50
Resumo:
Log4Shell è una vulnerabilità scoperta nel 2021 che affliggeva il popolare sistema di log Log4J. Permetteva di utilizzare le richieste verso Log4J per eseguire codice arbitrario su un dispositivo che lo utilizza permettendo di accedere a dati riservati. A questa vulnerabilità è stato assegnato un punteggio CVSS di 10 (il massimo). Questa tesi è il completamento di un progetto di tirocinio svolto presso il CINECA in cui si sfrutta il SIEM IBM QRadar per tracciare i log, a cui si accede tramite le sue API da uno script scritto in Phyton per rilevare i tentativi di sfruttamento di questa vulnerabilità e tra questi quale è andato a buon fine.
Resumo:
L'obiettivo di questa tesi è di fornire un'introduzione alla teoria dei q-analoghi in ambito combinatorio e alcune sue applicazioni allo studio di problemi legati a successioni numeriche. Lo scopo di questa teoria è quello di ricavare informazioni e proprietà aggiuntive su alcuni oggetti matematici discreti attraverso una loro generalizzazione di tipo polinomiale. In particolare sono proposti alcuni risultati legati al conteggio delle permutazioni di insiemi e multiinsiemi, delle partizioni di interi e dei cammini di Dyck.
Resumo:
L'elaborato illustra le basi teoriche di funzionamento di un motore endotermico ad accensione comandata e gli interventi fatti sui suoi parametri caratteristici per aumentarne le prestazioni, con riferimento ai motori impiegati nelle competizioni sportive.
Resumo:
Oggi si sta assistendo sempre più ad un consumo maggiore di energia, proveniente soprattutto da fonti fossili. Tuttavia, occorre evidenziare l’aspetto negativo correlato a tutto questo: l’incremento del rilascio di gas ad effetto serra, responsabili del fenomeno del surriscaldamento globale. La Carbon Capture, Utilisation and Storage (CCUS) è stata riconosciuta come tecnologia strategica per raggiungere l’obiettivo dell’azzeramento delle emissioni entro il 2050. Lo scopo della tesi è effettuare la valutazione delle conseguenze dei rilasci accidentali di CO2 dagli impianti di cattura, esprimendole in termini di distanze di danno per l’uomo e per le apparecchiature. Dopo il Capitolo 1, dal carattere introduttivo e in cui si spiega il perché si renda necessaria la cattura della CO2, il Capitolo 2 fornisce i valori di pericolosità della CO2 relativi agli effetti tossici e termici, in termini di concentrazioni e temperature soglia; inoltre, illustra i codici DNV PHAST, NIST FDS e Ansys FLUENT, utilizzati per effettuare la valutazione delle conseguenze. A seguire, il Capitolo 3 presenta un impianto di cattura della CO2 assunto come caso di studio, fornendo la descrizione del funzionamento dell’impianto e riportandone i documenti principali, quali il PFD e la mappa del layout. Inoltre, vengono individuati gli scenari di rilascio e sono specificate le condizioni ambientali considerate ai fini della modellazione della dispersione. Il Capitolo 4 riporta i risultati ottenuti dalle simulazioni effettuate con i software di modellazione illustrati nel Capitolo 2, effettuando un’analisi comparativa delle distanze di danno, corredata di un’ampia discussione. Il Capitolo 5, infine, riporta le considerazioni conclusive del lavoro di tesi e delinea alcuni possibili sviluppi futuri delle indagini.
Resumo:
The applicability of AI methods to the Chagas' disease diagnosis is carried out by the use of Kohonen's self-organizing feature maps. Electrodiagnosis indicators calculated from ECG records are used as features in input vectors to train the network. Cross-validation results are used to modify the maps, providing an outstanding improvement to the interpretation of the resulting output. As a result, the map might be used to reduce the need for invasive explorations in chronic Chagas' disease.
Resumo:
In questa tesi si è studiato un corpus di importanti testi della letteratura Italiana utilizzando la teoria dei network. Le misure topologiche tipiche dei network sono state calcolate sui testi letterari, poi sono state studiate le loro distribuzioni e i loro valori medi, per capire quali di esse possono distinguere un testo reale da sue modificazioni. Inoltre si è osservato come tutti i testi presentino due importanti leggi statistiche: la legge di Zipf e quella di Heaps.
Resumo:
The focus of this dissertation is the relationship between the necessity for protection and the construction of cultural identities. In particular, by cultural identities I mean the representation and construction of communities: national communities, religious communities or local communities. By protection I mean the need for individuals and groups to be reassured about dangers and risks. From an anthropological point of view, the relationship between the need for protection and the formation and construction of collective identities is driven by the defensive function of culture. This was recognized explicitly by Claude Lévi-Strauss and Jurij Lotman. To explore the “protective hypothesis,” it was especially useful to compare the immunitarian paradigm, proposed by Roberto Esposito, with a semiotic approach to the problem. According to Esposito, immunity traces borders, dividing Community from what should be kept outside: the enemies, dangers and chaos, and, in general, whatever is perceived to be a threat to collective and individual life. I recognized two dimensions in the concept of immunity. The first is the logic dimension: every element of a system makes sense because of the network of differential relations in which it is inscribed; the second dimension is the social praxis of division and definition of who. We are (or what is inside the border), and who They are (or what is, and must be kept, outside the border). I tested my hypothesis by analyzing two subject areas in particular: first, the security practices in London after 9/11 and 7/7; and, second, the Spiritual Guide of 9/11 suicide bombers. In both cases, one observes the construction of two entities: We and They. The difference between the two cases is their “model of the world”: in the London case, one finds the political paradigms of security as Sovereignty, Governamentality and Biopolitics. In the Spiritual Guide, one observes a religious model of the Community of God confronting the Community of Evil. From a semiotic point view, the problem is the origin of respective values, the origin of respective moral universes, and the construction of authority. In both cases, I found that emotional dynamics are crucial in the process of forming collective identities and in the process of motivating the involved subjects: specifically, the role of fear and terror is the primary factor, and represents the principal focus of my research.
Resumo:
L’invarianza spaziale dei parametri di un modello afflussi-deflussi può rivelarsi una soluzione pratica e valida nel caso si voglia stimare la disponibilità di risorsa idrica di un’area. La simulazione idrologica è infatti uno strumento molto adottato ma presenta alcune criticità legate soprattutto alla necessità di calibrare i parametri del modello. Se si opta per l’applicazione di modelli spazialmente distribuiti, utili perché in grado di rendere conto della variabilità spaziale dei fenomeni che concorrono alla formazione di deflusso, il problema è solitamente legato all’alto numero di parametri in gioco. Assumendo che alcuni di questi siano omogenei nello spazio, dunque presentino lo stesso valore sui diversi bacini, è possibile ridurre il numero complessivo dei parametri che necessitano della calibrazione. Si verifica su base statistica questa assunzione, ricorrendo alla stima dell’incertezza parametrica valutata per mezzo di un algoritmo MCMC. Si nota che le distribuzioni dei parametri risultano in diversa misura compatibili sui bacini considerati. Quando poi l’obiettivo è la stima della disponibilità di risorsa idrica di bacini non strumentati, l’ipotesi di invarianza dei parametri assume ancora più importanza; solitamente infatti si affronta questo problema ricorrendo a lunghe analisi di regionalizzazione dei parametri. In questa sede invece si propone una procedura di cross-calibrazione che viene realizzata adottando le informazioni provenienti dai bacini strumentati più simili al sito di interesse. Si vuole raggiungere cioè un giusto compromesso tra lo svantaggio derivante dall’assumere i parametri del modello costanti sui bacini strumentati e il beneficio legato all’introduzione, passo dopo passo, di nuove e importanti informazioni derivanti dai bacini strumentati coinvolti nell’analisi. I risultati dimostrano l’utilità della metodologia proposta; si vede infatti che, in fase di validazione sul bacino considerato non strumentato, è possibile raggiungere un buona concordanza tra le serie di portata simulate e osservate.
Resumo:
Dato il recente avvento delle tecnologie NGS, in grado di sequenziare interi genomi umani in tempi e costi ridotti, la capacità di estrarre informazioni dai dati ha un ruolo fondamentale per lo sviluppo della ricerca. Attualmente i problemi computazionali connessi a tali analisi rientrano nel topic dei Big Data, con databases contenenti svariati tipi di dati sperimentali di dimensione sempre più ampia. Questo lavoro di tesi si occupa dell'implementazione e del benchmarking dell'algoritmo QDANet PRO, sviluppato dal gruppo di Biofisica dell'Università di Bologna: il metodo consente l'elaborazione di dati ad alta dimensionalità per l'estrazione di una Signature a bassa dimensionalità di features con un'elevata performance di classificazione, mediante una pipeline d'analisi che comprende algoritmi di dimensionality reduction. Il metodo è generalizzabile anche all'analisi di dati non biologici, ma caratterizzati comunque da un elevato volume e complessità, fattori tipici dei Big Data. L'algoritmo QDANet PRO, valutando la performance di tutte le possibili coppie di features, ne stima il potere discriminante utilizzando un Naive Bayes Quadratic Classifier per poi determinarne il ranking. Una volta selezionata una soglia di performance, viene costruito un network delle features, da cui vengono determinate le componenti connesse. Ogni sottografo viene analizzato separatamente e ridotto mediante metodi basati sulla teoria dei networks fino all'estrapolazione della Signature finale. Il metodo, già precedentemente testato su alcuni datasets disponibili al gruppo di ricerca con riscontri positivi, è stato messo a confronto con i risultati ottenuti su databases omici disponibili in letteratura, i quali costituiscono un riferimento nel settore, e con algoritmi già esistenti che svolgono simili compiti. Per la riduzione dei tempi computazionali l'algoritmo è stato implementato in linguaggio C++ su HPC, con la parallelizzazione mediante librerie OpenMP delle parti più critiche.
Resumo:
The objective of this paper is to compare the performance of twopredictive radiological models, logistic regression (LR) and neural network (NN), with five different resampling methods. One hundred and sixty-seven patients with proven calvarial lesions as the only known disease were enrolled. Clinical and CT data were used for LR and NN models. Both models were developed with cross validation, leave-one-out and three different bootstrap algorithms. The final results of each model were compared with error rate and the area under receiver operating characteristic curves (Az). The neural network obtained statistically higher Az than LR with cross validation. The remaining resampling validation methods did not reveal statistically significant differences between LR and NN rules. The neural network classifier performs better than the one based on logistic regression. This advantage is well detected by three-fold cross-validation, but remains unnoticed when leave-one-out or bootstrap algorithms are used.
Resumo:
L’elaborato svolge in 4 capitoli un percorso di analisi multidisciplinare volto a fondare teoricamente e a sviluppare operativamente la costituzione di una associazione di co-sviluppo italotunisina. Nel primo capitolo viene approfondita, sotto il profilo della teoria economica, la relazione fra emigrazione e sviluppo, prendendo in esame le recenti teorie sull’argomento e indirizzando l’interesse verso il ruolo dei network di migranti come elemento di continuità socio-economica e di interazione fra il paese di origine e il paese ospitante. Nel secondo capitolo il network viene approfondito sotto gli aspetti connessi alla sua natura di intermediario sociale, politico ed economico, soprattutto in presenza di migrazione di ritorno. Il terzo capitolo si concentra sulle associazioni degli immigrati e non solo Hometown Associations quali strumenti elaborati all’interno dei network di migranti per mettere in pratica le loro capacità di agente economico e di attore sociale nel processo di co-sviluppo dei paesi di provenienza e di destinazione. Infine, nel quarto capitolo viene descritto l’iter istituzionale previsto per la costituzione di una specifica associazione (El-Hiwar Atiir, Associazione Tunisina per l’Integrazione e l’Investimento di Ritorno) e le caratteristiche della medesima. Il lavoro di tesi, coordinato e sviluppato, pur approfondendo tematiche e modelli economici si muove anche su altri piani (sociale e istituzionale), mostrando la molteplicità delle sfaccettature del problema. Inoltre riesce a radicare in campo teorico uno strumento operativo molto interessante per la gestione economica e politica del fenomeno migratorio, mostrando come la cooperazione allo sviluppo, oltre che tema di modellazione economica e di dichiarazioni di principio nei documenti ufficiali, possa divenire processo operativo attraverso strumenti giuridici consolidati.
Resumo:
L’obiettivo di questa tesi è l’analisi e la modellizzazione dei flussi dispersi statorici nelle macchine multifase utilizzando la teoria dei vettori di spazio multipli. L’analisi ed il calcolo del coefficiente di auto induzione di dispersione statorica nei vari spazi è cruciale nella progettazione e nel controllo delle macchine elettriche multifase in quanto, per esempio, essa limita il ripple di corrente quando la macchina non è alimentata con una tensione perfettamente sinusoidale. Il fine è pertanto di giungere alla scrittura di un’equazione che leghi il generico vettore di spazio dei flussi dispersi ai vettori di spazio delle correnti che alimentano la macchina elettrica tramite una costante che contenga i coefficienti di auto e mutua induzione di dispersione in cava degli avvolgimenti statorici.
Resumo:
Questo studio, che è stato realizzato in collaborazione con Hera, è un'analisi della gestione dei rifiuti a Bologna. La ricerca è stata effettuata su diversi livelli: un livello strategico il cui scopo è quello di identificare nuovi metodi per la raccolta dei rifiuti in funzione delle caratteristiche del territorio della città, un livello analitico che riguarda il miglioramento delle applicazioni informatiche di supporto, e livello ambientale che riguarda il calcolo delle emissioni in atmosfera di veicoli adibiti alla raccolta e al trasporto dei rifiuti. innanzitutto è stato necessario studiare Bologna e lo stato attuale dei servizi di raccolta dei rifiuti. È incrociando questi componenti che in questi ultimi tre anni sono state effettuate modifiche nel settore della gestione dei rifiuti. I capitoli seguenti sono inerenti le applicazioni informatiche a sostegno di tali attività: Siget e Optit. Siget è il programma di gestione del servizio, che attualmente viene utilizzato per tutte le attività connesse alla raccolta di rifiuti. È un programma costituito da moduli diversi, ma di sola la gestione dati. la sperimentazione con Optit ha aggiunto alla gestione dei dati la possibilità di avere tali dati in cartografia e di associare un algoritmo di routing. I dati archiviati in Siget hanno rappresentato il punto di partenza, l'input, e il raggiungimento di tutti punti raccolta l'obiettivo finale. L'ultimo capitolo è relativo allo studio dell'impatto ambientale di questi percorsi di raccolta dei rifiuti. Tale analisi, basata sulla valutazione empirica e sull'implementazione in Excel delle formule del Corinair mostra la fotografia del servizio nel 2010. Su questo aspetto Optit ha fornito il suo valore aggiunto, implementando nell'algoritmo anche le formule per il calcolo delle emissioni.