778 resultados para Algebre monounarie, ordine, classificazione
Resumo:
L'elaborato tratta il ruolo del porto di Ravenna nell'import/export di prodotti ortofrutticoli. Dopo una accurata analisi dei dati, lo studio delle rotte marittime e l'uso di Dbms per gestire un database complesso, si propone un modello di programmazione lineare intera su un problema di ship routing, ship scheduling e full ship-load balancing. L'obiettivo è di massimizzare il profitto derivante da un prezzo di vendita e soggetto ai vari costi della logistica. Il modello sceglie la rotta ottimale da effettuare, in termini di ordine di visita dei vari porti che hanno un import e un export dei prodotti studiati. Inoltre, è in grado di gestire lo scorrere del tempo, fornendo come soluzione il giorno ottimale di visita dei vari porti considerati. Infine, trova la ripartizione ottima del numero di container a bordo della nave per ogni tipologia di prodotto.
Resumo:
Questo lavoro di tesi riguarda lo studio e l’implementazione di un algoritmo di multiple kernel learning (MKL) per la classificazione e la regressione di dati di neuroimaging ed, in particolare, di grafi di connettività funzionale. Gli algoritmi di MKL impiegano una somma pesata di vari kernel (ovvero misure di similarità) e permettono di selezionare le features utili alla discriminazione delle istanze durante l’addestramento del classificatore/regressore stesso. L’aspetto innovativo introdotto in questa tesi è stato lo studio di un nuovo kernel tra grafi di connettività funzionale, con la particolare caratteristica di conservare l’informazione relativa all’importanza di ogni singola region of interest (ROI) ed impiegando la norma lp come metodo per l’aggiornamento dei pesi, al fine di ottenere soluzioni sparsificate. L’algoritmo è stato validato utilizzando mappe di connettività sintetiche ed è stato applicato ad un dataset formato da 32 pazienti affetti da deterioramento cognitivo lieve e malattia dei piccoli vasi, di cui 16 sottoposti a riabilitazione cognitiva tra un’esame di risonanza ma- gnetica funzionale di baseline e uno di follow-up. Le mappe di con- nettività sono state ottenute con il toolbox CONN. Il classificatore è riuscito a discriminare i due gruppi di pazienti in una configurazione leave-one-out annidata con un’accuratezza dell’87.5%. Questo lavoro di tesi è stato svolto durante un periodo di ricerca presso la School of Computer Science and Electronic Engineering dell’University of Essex (Colchester, UK).
Resumo:
Gli ultimi 10 anni hanno visto un crescente aumento delle richieste di fornitura di servizi legati alla manutenzione edilizia da parte della Grande Distribuzione Organizzata; la domanda è quella di servizi riconducibili al Facility Management, ovvero rapporti basati sul raggiungimento di standard qualitativi predefiniti in sede contrattuale e garanzia di intervento 24h/24. Nella prima parte del progetto di tesi viene inquadrata la disciplina del FM, le motivazioni, gli strumenti e gli attori coinvolti. Dopo un excursus normativo sulla manutenzione in Italia, una classificazione delle tipologie di intervento manutentivo e una valutazione sull’incidenza della manutenzione nel Life Cycle Cost, viene effettuata un’analisi delle modalità interoperative del FM applicato alla manutenzione edilizia nel caso della GDO. La tesi è stata svolta nell'ambito di un tirocinio in azienda, il che ha permesso alla laureanda di affrontare il caso di studio di un contratto di Global Service con un’importante catena di grande distribuzione, e di utilizzare un software gestionale (PlaNet) con il quale viene tenuta traccia, per ogni punto vendita, degli interventi manutentivi e della loro localizzazione nell’edificio. Questo permette di avere un quadro completo degli interventi, con modalità di attuazione già note, e garantisce una gestione più efficace delle chiamate, seguite tramite un modulo di Call Center integrato. La tesi esamina criticamente i principali documenti di riferimento per l’opera collegati alla manutenzione: il Piano di Manutenzione e il Fascicolo dell’Opera, evidenziando i limiti legati alla non completezza delle informazioni fornite. L’obbiettivo finale della tesi è quello di proporre un documento integrativo tra il Piano di Manutenzione e il Fascicolo, al fine di snellire il flusso informativo e creare un documento di riferimento completo ed esaustivo, che integra sia gli aspetti tecnici delle modalità manutentive, sia le prescrizioni sulla sicurezza.
Resumo:
Il mio elaborato ha come scopo quello di creare un quadro della situazione regionale dal punto di vista delle start-up eco-innovative. Per fare questo ho utilizzato un sito/piattaforma internet contenente il registro delle start-up innovative in Italia. A partire da tale supporto ho analizzato 700 start-up situate nella regione Emilia-Romagna. Tra queste, ho individuato 78 start-up eco-innovative. Lo studio vuole comprendere le tendenze e la diffusione di tali start-up, studiandone, nell' ordine, la distribuzione geografica, l’inizio delle attività, il codice Ateco, la tecnologia OECD di riferimento. Con questo studio si arriverà poi in definitiva a capire quanto l’ambito della Green Economy sia diffuso in Emilia-Romagna.
Resumo:
Il presente lavoro di tesi consiste nello studio petrografico (in sezione sottile) e geochimico (con analisi in XRF), di 18 campioni della successione di vulcaniti permiane del Gruppo Vulcanico Atesino. I campioni sono stati prelevati durante un rilevamento geologico nelle aree del Passo Rolle e S. Martino di Castrozza. Lo scopo della tesi è di fornire una precisa classificazione dei litotipi su base petrografica-geochimica.
Resumo:
Il progresso scientifico apre scenari inattesi, offendo alla società nuove opportunità, in vista del miglioramento della qualità della vita dell'uomo. L' obiettivo di proteggere la persona umana e di salvaguardarne i diritti inviolabili è comune sia alle scienze biomediche che a quelle giuridiche. In particolare il diritto tutela la persona umana e i suoi diritti fondamentali, primo fra tutti la dignità umana. Nella specie, si discute se il contenuto minimo di tale diritto possa spingersi fino al riconoscimento di un primato della volontà del paziente, cioè della persona umana, in ordine alla cura ed alla scelta della terapia e quindi se sia legittimo tutelare sempre e comunque l'aspettativa pretensiva del singolo, anche ove si richieda come cura una terapia (rectius: un trattamento) che la scienza non abbia già od ancora preventivamente "validato".
Resumo:
"Florae germanicae scriptores ordine chorographico dispositi": p. [17]-82.
Resumo:
Questo lavoro nasce dal desiderio di approfondire i fondamenti del linguaggio della matematica, osservandone gli usi ed analizzandone gli scopi dal punto di vista didattico e non solo. Il linguaggio è il mezzo su cui si costruiscono i pensieri o semplicemente lo strumento coi quali si comunica il sapere? Il linguaggio è uno strumento della pratica matematica o è la matematica ad essere un linguaggio? Se lo è, che caratteristiche ha? Queste sono le domande che hanno accompagnato la stesura dei primi capitoli di questa tesi, in cui si approfondisce il tema del linguaggio della matematica da un punto di vista epistemologico, tecnico e didattico, a partire dai riferimenti teorici e dalle ricerche sul campo curate da Bruno D’Amore e Pier Luigi Ferrari. Nella seconda parte si presentano i risultati e le osservazioni della sperimentazione condotta nella classe 5a As del Liceo Scientifico “A. Righi” di Cesena. L’indagine di tipo qualitativo sui protocolli degli studenti ha permesso di definire le modalità d’uso del linguaggio da parte degli stessi al termine del percorso scolastico, di mostrare alcuni possibili legami tra le competenze linguistiche e quelle matematiche e di delineare una classificazione di tre profili di allievi relativamente al loro modo di scrivere e parlare di matematica. La tesi ha favorito uno sguardo trasversale verso la matematica in cui il linguaggio offre una fruttuosa possibilità di incontro tra prospettive opposte nel guardare la scienza e l’uomo. Questo apre alla possibilità di costruire una didattica che non sia la mera somma di conoscenze o la divisione di settori disciplinari, ma il prodotto di elementi che armoniosamente costruiscono il pensiero dell’uomo.
Resumo:
Partendo dalla definizione di UAV e UAS, arrivando a quella di drone, nella tesi saranno definiti i termini precedenti, ossia un sistema aereo senza pilota a bordo, la nascita del termine drone e le tendenze attuali. Dopo una precisa classificazione nelle quattro categorie principali (droni per hobbisti, commerciali e militari di me- dia grandezza, militari specifici di grandi dimensioni e stealth da combattimento) saranno descritti gli ambiti di utilizzo: da un lato quello militare e della sicurezza, dall’altro quello civile e scientifico. I capitoli centrali della tesi saranno il cuore dell’opera: l’architettura dell’UAV sarà descritta analizzando la totalità delle sue componenti, sia hardware che software. Verranno, quindi, analizzati i problemi relativi alla sicurezza, focalizzandosi sull’hacking di un UAV, illustrandone le varie tecniche e contromisure (tra cui anche come nascondersi da un drone). Il lavoro della tesi prosegue nei capitoli successivi con un’attenta trattazione della normativa vigente e dell’etica dei droni (nonché del diritto ad uccidere con tali sistemi). Il capitolo relativo alla tecnologia stealth sarà importante per capire le modalità di occultamento, le tendenze attuali e i possibili sviluppi futuri degli UAV militari da combattimento. Il capitolo finale sugli sviluppi futuri esporrà le migliorie tecnologiche e gli obiettivi degli UAV negli anni a venire, insieme ad eventuali utilizzi sia militari che civili. La ricerca sarà orientata verso sistemi miniaturizzati, multiple UAV e swarming.
Resumo:
La Blockchain è un deposito di dati distribuito costituito da una lista di record (in continua crescita) resistente a modifiche e revisioni, anche da parte degli operatori dei nodi (computer) su cui risiede. I dati sono sicuri anche in presenza di partecipanti non affidabili o disonesti alla rete. Una copia totale o parziale della blockchain è memorizzata su tutti i nodi. I record contenuti sono di due tipi: le transazioni, che sono i dati veri e propri, e i blocchi, che sono la registrazione di quanto ed in quale ordine le transazioni sono state inserite in modo indelebile nel database. Le transazioni sono create dai partecipanti alla rete nelle loro operazioni (per esempio, trasferimento di valuta ad un altro utente), mentre i blocchi sono generati da partecipanti speciali, i cosiddetti “miners”, che utilizzano software e a volte hardware specializzato per creare i blocchi. L’attività dei miners viene ricompensata con l’assegnazione di “qualcosa”, nel caso della rete Bitcoin di un certo numero di unità di valuta. Spesso negli esempi si fa riferimento alla Blockchain di Bitcoin perché è la catena di blocchi implementata per prima, e l'unica ad avere una dimensione consistente. Le transazioni, una volta create, vengono distribuite sui nodi con un protocollo del tipo “best effort”. La validità di una transazione viene verificata attraverso il consenso dei nodi della rete sulla base di una serie di parametri, che variano secondo l’implementazione specifica dell’architettura. Una volta verificata come valida, la transazione viene inserita nel primo blocco libero disponibile. Per evitare che ci sia una duplicazione delle informazioni l’architettura prevede un sistema di time stamping, che non richiede un server centralizzato.
Resumo:
Dato il recente avvento delle tecnologie NGS, in grado di sequenziare interi genomi umani in tempi e costi ridotti, la capacità di estrarre informazioni dai dati ha un ruolo fondamentale per lo sviluppo della ricerca. Attualmente i problemi computazionali connessi a tali analisi rientrano nel topic dei Big Data, con databases contenenti svariati tipi di dati sperimentali di dimensione sempre più ampia. Questo lavoro di tesi si occupa dell'implementazione e del benchmarking dell'algoritmo QDANet PRO, sviluppato dal gruppo di Biofisica dell'Università di Bologna: il metodo consente l'elaborazione di dati ad alta dimensionalità per l'estrazione di una Signature a bassa dimensionalità di features con un'elevata performance di classificazione, mediante una pipeline d'analisi che comprende algoritmi di dimensionality reduction. Il metodo è generalizzabile anche all'analisi di dati non biologici, ma caratterizzati comunque da un elevato volume e complessità, fattori tipici dei Big Data. L'algoritmo QDANet PRO, valutando la performance di tutte le possibili coppie di features, ne stima il potere discriminante utilizzando un Naive Bayes Quadratic Classifier per poi determinarne il ranking. Una volta selezionata una soglia di performance, viene costruito un network delle features, da cui vengono determinate le componenti connesse. Ogni sottografo viene analizzato separatamente e ridotto mediante metodi basati sulla teoria dei networks fino all'estrapolazione della Signature finale. Il metodo, già precedentemente testato su alcuni datasets disponibili al gruppo di ricerca con riscontri positivi, è stato messo a confronto con i risultati ottenuti su databases omici disponibili in letteratura, i quali costituiscono un riferimento nel settore, e con algoritmi già esistenti che svolgono simili compiti. Per la riduzione dei tempi computazionali l'algoritmo è stato implementato in linguaggio C++ su HPC, con la parallelizzazione mediante librerie OpenMP delle parti più critiche.
Resumo:
Quando si fa una ricerca su Internet con i motori di ricerca, tipo Google, lo scopo è quello di trovare tutte le pagine Web contenenti le parole richieste. Ancor di più, si vorrebbe avere la miglior risposta alla nostra richiesta tra le prime pagine lette, senza dover passare in rassegna tutte le migliaia di pagine che il motore di ricerca propone. Quello che riceviamo come risposta dal motore di ricerca, è infatti una lista lunghissima di pagine Web, contenenti le parole chiave e ordinate in base all’importanza. Nelle prime posizioni della lista troveremo le pagine più significative, mentre in fondo ci saranno quelle di meno rilevanza. In questa tesi affronteremo, appunto, il problema di classificazione, il quale non è basato su un giudizio umano, ma sulla struttura dei link del Web. Studieremo, per l’esattezza, il concetto di pagerank usato da Google e di conseguenza l’algoritmo, chiamato proprio PageRank, per classificare le pagine Web. Vedremo che il tutto si basa su un’equazione matematica, ossia sul calcolo dell’autovettore, relativo all’autovalore uguale a 1, di una certa matrice che rappresenta la rete Internet.
Resumo:
Nel primo capitolo si riporta il principio del massimo per operatori ellittici. Sarà considerato, in un primo momento, l'operatore di Laplace e, successivamente, gli operatori ellittici del secondo ordine, per i quali si dimostrerà anche il principio del massimo di Hopf. Nel secondo capitolo si affronta il principio del massimo per operatori parabolici e lo si utilizza per dimostrare l'unicità delle soluzioni di problemi ai valori al contorno.