650 resultados para base di Bernstein spazi di Chebyshev Bézier spazi generalizzati a tratti
Resumo:
La gestione del traffico è una delle principali problematiche delle città moderne, e porta alla definizione di nuove sfide per quanto riguarda l’ottimizzazione del flusso veicolare. Il controllo semaforico è uno degli elementi fondamentali per ottimizzare la gestione del traffico. Attualmente la rilevazione del traffico viene effettuata tramite sensori, tra i quali vengono maggiormente utilizzate le spire magnetiche, la cui installazione e gestione implica costi elevati. In questo contesto, il progetto europeo COLOMBO si pone come obiettivo l’ideazione di nuovi sistemi di regolazione semaforica in grado di rilevare il traffico veicolare mediante sensori più economici da installare e mantenere, e capaci, sulla base di tali rilevazioni, di auto organizzarsi, traendo ispirazione dal campo dell’intelligenza artificiale noto come swarm intelligence. Alla base di questa auto organizzazione semaforica di COLOMBO vi sono due diversi livelli di politiche: macroscopico e microscopico. Nel primo caso le politiche macroscopiche, utilizzando il feromone come astrazione dell’attuale livello del traffico, scelgono la politica di gestione in base alla quantità di feromone presente nelle corsie di entrata e di uscita. Per quanto riguarda invece le politiche microscopiche, il loro compito è quello di deci- dere la durata dei periodi di rosso o verde modificando una sequenza di fasi, chiamata in COLOMBO catena. Le catene possono essere scelte dal sistema in base al valore corrente della soglia di desiderabilità e ad ogni catena corrisponde una soglia di desiderabilità. Lo scopo di questo elaborato è quello di suggerire metodi alternativi all’attuale conteggio di questa soglia di desiderabilità in scenari di bassa presenza di dispositivi per la rilevazione dei veicoli. Ogni algoritmo complesso ha bisogno di essere ottimizzato per migliorarne le performance. Anche in questo caso, gli algoritmi proposti hanno subito un processo di parameter tuning per ottimizzarne le prestazioni in scenari di bassa presenza di dispositivi per la rilevazione dei veicoli. Sulla base del lavoro di parameter tuning, infine, sono state eseguite delle simulazioni per valutare quale degli approcci suggeriti sia il migliore.
Resumo:
Uno dei maggiori obiettivi della ricerca nel campo degli acceleratori basati su interazione laser-plasma è la realizzazione di una sorgente compatta di raggi x impulsati al femtosecondo. L’interazione tra brevi impulsi laser e un plasma, a energie relativistiche, ha recentemente portato a una nuova generazione di sorgenti di raggi x con le proprietà desiderate. Queste sorgenti, basate sulla radiazione emessa da elettroni accelerati nel plasma, hanno in comune di essere compatte, produrre radiazione collimata, incoerente e impulsata al femtosecondo. In questa tesi vengono presentati alcuni metodi per ottenere raggi x da elettroni accelerati per interazione tra laser e plasma: la radiazione di betatrone da elettroni intrappolati e accelerati nel cosiddetto “bubble regime”, la radiazione di sincrotrone da elettroni posti in un ondulatore convenzionale con lunghezza dell’ordine dei metri e la radiazione ottenuta dal backscattering di Thomson. Vengono presentate: la fisica alla base di tali metodi, simulazioni numeriche e risultati sperimentali per ogni sorgente di raggi x. Infine, viene discussa una delle più promettenti applicazioni fornite dagli acceleratori basati su interazione tra laser e plasma: il Free-electron laser nello spettro dei raggi x, capace di fornire intensità 108-1010 volte più elevate rispetto alle altre sorgenti.
Resumo:
L'obiettivo di questo elaborato é quello di mettere in evidenza una categoria critica dei rifiuti: i pannolini usa e getta. Essi, infatti, consumano una quantità ingente di risorse ed energia ed inoltre producono un enorme impatto ambientale connesso allo smaltimento finale. Si pensi che quest'ultimi rappresentano circa il 5% del totale dei rifiuti prodotti: 2 miliardi di pannolini solo in Italia che impiegano più di 500 anni per decomporsi in discarica. Per studiare questo fenomeno si è presa in considerazione una cooperativa sociale bolognese che ha molto a cuore la salvaguardia dell'ambiente e che, attraverso un suo progetto, il progetto Lavanda, ha istituito una lavanderia che si occupa di fornire attraverso il noleggio pannolini lavabili agli asili del territorio: la cooperativa Eta Beta. Inoltre, recentemente, essa ha deciso di utilizzare anche pannolini compostabili, forniti dall'azienda IES Gas, per ridurre ulteriormente le emissioni nell'ambiente. Infatti il motore principale della cooperativa è quello di coniugare la raccolta differenziata alla riduzione dei rifiuti, concetto che dovrebbe essere alla base di ogni azienda, ogni famiglia, ogni persona ma che in Italia risulta di difficile realizzazione.Utilizzando i dati dalla Cooperativa e contattando le cooperative che collaborano con essa (Cadiai e Karabak) ed anche gli asili affiliati si è deciso di effettuare un'analisi statistico - gestionale per individuare il numero medio di pannolini utilizzati da un bambino in un anno scolastico andando a considerare diverse variabili come la tipologia di asilo, l'età dei bambini o le presenze. Dopo questa parentesi 'gestionale', lo studio ha ripreso un'impronta 'ambientale': infatti si è andato a studiare il processo anaerobico e aerobico per lo smaltimento dei pannolini compostabili attraverso un esperimento svolto presso il laboratorio di Chimica e di Processo del DICAM, facoltà di Ingegneria, Alma Mater Studiorum di Bologna
Resumo:
Negli anni recenti, lo sviluppo dell’elettronica organica ha condotto all’impiego di materiali organici alla base di numerosi dispositivi elettronici, quali i diodi ad emissione di luce, i transistor ad effetto di campo, le celle solari e i rivelatori di radiazione. Riguardo quest’ultimi, gli studi riportati in letteratura si riferiscono per la maggiore a dispositivi basati su materiali organici a film sottile, che tuttavia presentano problemi relativi ad instabilità e degradazione. Come verrà illustrato, l’impiego di singoli cristalli organici come materiali alla base di questi dispositivi permette il superamento delle principali limitazioni che caratterizzano i rivelatori basati su film sottili. In questa attività sperimentale, dispositivi basati su cristalli organici semiconduttori verranno caratterizzati in base alle principali figure di merito dei rivelatori. Tra i campioni testati, alcuni dispositivi basati su singoli cristalli di 6,13-bis (triisopropylsilylethynyl)-pentacene (TIPS-Pentacene) e 5,6,11,12-tetraphenyltetracene (Rubrene) hanno mostrato interessanti proprietà e sono stati quindi maggiormente studiati.
Resumo:
Nell'ambito del presente lavoro il fenomeno di multiformità del termine si esprime in una stratificazione cognitiva riconducibile alla variazione terminologica e viene esaminato in maniera trasversale su entrambe le lingue di lavoro. La terminologia del dominio “Macchine per il riempimento” nasce sotto forma di testi scritti e orali che sono frutto sia di diversi contesti extralinguistici sia della percezione stratificata dei testi. A livello terminografico, i processi interdipendenti di produzione della terminologia stratificata e della sua percezione stratificata si concretizzano in asimmetrie cognitive. La Tesi intende registrare le asimmetrie cognitive presenti nella terminologia del dominio prescelto mediante l'impiego del modello del Dizionario Esplicativo Combinatorio (DEC). Oltre ad essere uno strumento particolarmente adatto a tal fine, il DEC si pone a base di diversi progetti nel settore del lessico specialistico fruibili sul WEB. Il presente lavoro costituisce il primo contributo scientifico elaborato in Italia di adattamento del DEC alla terminologia tecnica. Nella prima parte del lavoro si tratteggia il progetto on-line DiCoEnviro sviluppato dall'Osservatorio Linguistico Senso-Testo (OLST) dell’Università di Montreal in base al nucleo teorico e teoretico DiCo. In seguito si opera una contestualizzazione del modello DEC, sia mediante l’excursus biografico dell'autore Igor Mel'čuk sia mediante la descrizione della teoria Smysl<=>Tekst, fondante il DEC – in termini universalmente impiegabili. In seguito ancora, con la trattazione contemporanea in entrambe le lingue di lavoro, si analizzano le particolarità terminologiche del dominio in base ai testi appartenenti a diverse tipologie testuali. L'analisi porta a tratteggiare quella catena di percezione “dal produttore del macchinario all'utilizzatore diretto” che costituisce la radice delle asimmetrie cognitive-oggetto di ricerca. Sulla scorta delle asimmetrie individuate si formulano proposte di configurazione del DEC funzionali alla sua applicazione al settore terminologico. I risultati lasciano supporre che adattamenti simili a quelli proposti, mutatis mutandis, produrrebbero risultati altrettanto soddisfacenti in ciascun settore industriale.
Resumo:
Questa tesi tratta la gestione dei formati digitali dei testi, parziale argomento del progetto Biblio dell'università di Bologna. L'analisi proposta in questa tesi prevede la proposta di un'architettura che sfrutta in parte tecnologie già esistenti come linguaggi di markup, gestione di frammenti di testo con XPointer e epubcfi, tools per NLP, TEI, DocBook. Questa architettura ha il compito di modificare i formati digitali dei documenti in modo tale che la struttura sia indipendente dall'impaginazione. Ciò avviene attraverso l'introduzione delle unità informative, ossia nuovi elementi nella struttura del testo. Le unità informative sono di vari tipi, quelle più rilevanti ed innovative riguardano parti di testo e periodi; esse, infatti, permettono di identificare un preciso periodo dall'opera senza che esso dipenda dal tipo di impaginazione. Per ottenere questo risultato sono state sollevate tre problematiche principali: la gestione delle opere già esistenti, la gestione delle traduzioni, la gestione di opere inedite; esse vengono rispettivamente risolte nelle proposte dei postprocessor, del translationSystem e dell'authorSystem. Tutte e tre si basano sulla produzione di un'enumerazione delle unità informative, con una particolare attenzione per i periodi. Per riuscire a reperire i periodi si sfruttano le tecnologie di riconoscimento NLP. Il translationSystem e l'authorSystem presentano inoltre funzioni per la gestione della numerazione. Inoltre si prende in considerazione un repository e un sistema di autenticazione certificato per combattere furti d'identità, plagi e simili. Comprende accenni al recupero di unità informative sulla base di FRBR e una proposta per un sistema multiautore.
Resumo:
Il presente lavoro di tesi propone uno studio approfondito di proprietà morfologiche e di trasporto di carica di film sottili di SiOxNy amorfi (a-SiOxNy) e nanocristallini (nc-SiOxNy), che trovano importanti applicazioni in celle fotovoltaiche ad eterogiunzione in silicio, ad alta efficienza. Lo studio è condotto mediante caratterizzazione elettrica e morfologica attraverso tecniche di microscopia a forza atomica (AFM). Sono stati studiati campioni di a-SiOxNy cresciuti con tecnica PECVD (Plasma Enhanced Chemical Vapor Deposition), in cui è stata variata unicamente la distanza tra gli elettrodi durante la deposizione. Sono stati inoltre studiati campioni di nc-SiOxNy, cresciuti con PECVD con una differente percentuale di N2O come gas precursore e un differente tempo di annealing. In entrambi i casi si tratta di un materiale innovativo, le cui proprietà fisiche di base, nonostante le numerose applicazioni, sono ancora poco studiate. L'analisi morfologica, condotta mediante AFM e successiva analisi statistica delle immagini, ha permesso di determinare alcune proprietà morfologiche dei campioni. L’analisi statistica delle immagini è stata validata, dimostrandosi stabile e consistente per lo studio di queste strutture. Lo studio delle proprietà di trasporto è stato condotto mediante acquisizione di mappe di corrente con tecnica conductive-AFM. In questo modo si è ottenuta una mappa di conducibilità locale nanometrica, che permette di comprendere come avviene il trasporto nel materiale. L'analisi di questo materiale mediante tecniche AFM ha permesso di evidenziare che l'annealing produce nei materiali nanocristallini sia un clustering della struttura, sia un significativo aumento della conducibilità locale del materiale. Inoltre la distanza tra gli elettrodi in fase di deposizione ha un leggero effetto sulle dimensioni dei grani. È da notare inoltre che su questi campioni si sono osservate variazioni locali della conducibilità alla nanoscala. L’analisi delle proprietà dei materiali alla nanoscala ha contribuito alla comprensione più approfondita della morfologia e dei meccanismi di trasporto elettronico.
Resumo:
L'elaborato tratta dell'ottimizzazione del processo di riduzione termica dell'ossido di grafene in termini di conduttività e trasmittanza ottica. Definiti gli standard di deposizione tramite spin-coating e riduzione termica, i film prodotti vengono caratterizzati tramite XPS, AFM, UPS, TGA, ne vengono testate la conducibilità, con e senza effetto di gate, e la trasmittanza ottica, ne si misura l'elasticità tramite spettroscopia di forza, tutto al fine di comprendere l'evoluzione del processo termico di riduzione e di individuare i parametri migliori al fine di progredire verso la produzione di elettrodi flessibili e trasparenti a base di grafen ossido ridotto.
Resumo:
In questo lavoro si introducono i concetti di base di Natural Language Processing, soffermandosi su Information Extraction e analizzandone gli ambiti applicativi, le attività principali e la differenza rispetto a Information Retrieval. Successivamente si analizza il processo di Named Entity Recognition, focalizzando l’attenzione sulle principali problematiche di annotazione di testi e sui metodi per la valutazione della qualità dell’estrazione di entità. Infine si fornisce una panoramica della piattaforma software open-source di language processing GATE/ANNIE, descrivendone l’architettura e i suoi componenti principali, con approfondimenti sugli strumenti che GATE offre per l'approccio rule-based a Named Entity Recognition.
Resumo:
Il disturbo dello spettro autistico è caratterizzato da una grave compromissione delle capacità di comunicazione e d'interazione sociale. Tale aspetto può essere la conseguenza di un ritardo dello sviluppo, in particolare della capacità di integrare stimoli di modalità diverse (audio-visive). Infatti, l'integrazione multisensoriale è il meccanismo che ci permette di elaborare al meglio le proprietà visive e acustiche degli stimoli, essenziali per la comprensione del linguaggio; nella vita di tutti i giorni, il linguaggio ci appare infatti sotto forma di stimoli acustici, dati dai fonemi, e di stimoli visivi, dati dalla lettura labiale. È stato sperimentalmente osservato che, nei bambini autistici, questi processi di integrazione multisensoriale risultano compromessi. Nel presente lavoro si adotta l’ipotesi secondo cui tale insufficiente integrazione sia determinata da una ridotta maturazione delle sinapsi cross-modali, che collegano le aree acustiche e visive, e permettono l’integrazione fra fonemi e movimenti labiali. Si ipotizza che queste sinapsi risultino particolarmente deboli negli autistici, e ciò influisce inevitabilmente sull'integrazione degli stimoli a livello multisensoriale. La tesi, dopo un lavoro di rassegna della letteratura, descrive un recente modello matematico che riproduce il processo neurale di integrazione degli stimoli. Sulla base di tale modello, sono state eseguite diverse simulazioni, col fine di mostrare le differenze tra gli individui neurotipici e quelli autistici.
Resumo:
Lo scopo di questo lavoro sperimentale ha riguardato l’ottimizzazione del processo di produzione di materiali compositi ecocompatibili per pannellature con proprietà termoisolanti e resistenza al fuoco, già oggetto di brevetto CNR. Questi compositi sono ottenuti miscelando fibre di lana di scarto in una matrice geopolimerica. Le fibre di lana, a base di cheratina, vengono parzialmente attaccate dalle soluzioni alcaline portando al rilascio di ammoniaca e a una degradazione del materiale. Questo fenomeno, che si verifica in modo non sistematico, è tanto più marcato quanto maggiori sono le dimensioni dei manufatti prodotti, in quanto aumenta il tempo in cui le fibre di lana rimangono nell’ambiente acquoso alcalino. Il fattore di scala risulta quindi essere determinante. È stata pertanto investigata la degradazione delle fibre di lana in ambiente acquoso alcalino necessario alla sintesi della matrice geopolimerica. Sono stati anche valutati diversi trattamenti volti a velocizzare l’essiccamento del composito e fermare contestualmente il rilascio di ammoniaca, quali: aumento dei tempi e delle temperature di postcura, vacuum bagging e liofilizzazione (freeze drying).
Resumo:
Il presente lavoro di tesi ha avuto lo scopo di valutare l’influenza della marinatura su alcuni aspetti microbiologici e chimico-fisici correlati alla qualità della carne di petto di pollo confezionata sottovuoto durante un periodo di stoccaggio di 14 giorni in condizioni refrigerate. Dalle analisi microbiologiche, è emerso che, nonostante l’aumento di pH dovuto all’azione alcalinizzante del bicarbonato, la shelf-life del prodotto marinato è rimasta invariata rispetto al gruppo di controllo non-marinato ed è stata pari a circa 14 giorni. Dal punto di vista tecnologico, gli ingredienti funzionali aggiunti nella soluzione di marinatura hanno consentito di ottenere livelli di perdite di cottura nel prodotto finito simili a quelli delle carni non-marinate durante tutto il periodo di conservazione. Ciò è riconducibile al notevole aumento della solubilità delle proteine miofibrillari determinato dall’effetto sinergico di cloruro di sodio e bicarbonato. Tuttavia, i prodotti marinati hanno mostrato maggiori perdite di liquido nelle confezioni e questo aspetto può condizionare negativamente la propensione all’acquisto da parte del consumatore. Gli effetti rilevati sul colore non costituiscono invece un elemento determinante nella scelta dei prodotti avicoli confezionati sottovuoto. Infine, è stato escluso qualsiasi effetto negativo della marinatura nei confronti della stabilità ossidativa dei lipidi. I risultati ottenuti in questo lavoro di tesi hanno pertanto dimostrato che è possibile realizzare un prodotto marinato a base di carne di petto di pollo stabile durante la conservazione offrendo così al consumatore un alimento con caratteristiche sensoriali di succulenza e tenerezza superiori e con una maggiore facilità d’uso. Restano da ottimizzare alcuni aspetti legati alla presentazione del prodotto soprattutto in relazione alla presenza di liquido nelle confezioni.
Resumo:
Il testo contiene nozioni base di probabilità necessarie per introdurre i processi stocastici. Sono trattati infatti nel secondo capitolo i processi Gaussiani, di Markov e di Wiener, l'integrazione stocastica alla Ito, e le equazioni differenziali stocastiche. Nel terzo capitolo viene introdotto il rapporto tra la genetica e la matematica, dove si introduce l'evoluzione la selezione naturale, e altri fattori che portano al cambiamento di una popolazione; vengono anche formulate le leggi basilari per una modellizzazione dell’evoluzione fenotipica. Successivamente si entra più nel dettaglio, e si determina un modello stocastico per le mutazioni, cioè un modello che riesca ad approssimare gli effetti dei fattori di fluttuazione all'interno del processo evolutivo.
Resumo:
Sulla base di analisi pluviometriche, stima delle LSPP e tempi di ritorno, si è proceduto a creare le mappe di Pericolosità dell'area del Bacino del Torrente Ravone, Bologna, Quartiere Saragozza. Segue l'analisi degli edifici esposti e la loro vulnerabilità ad eventi con Tr noto, creazione di mappe di danno potenziale secondo normativa per arrivare a realizzare la carta del rischio idraulico. Si è utilizzato il Modello INSYDE per i calcoli.
Resumo:
Il principale scopo di questa tesi è focalizzato alla ricerca di una caratterizzazione dei contenuti in video 3D. In una prima analisi, le complessità spaziale e temporale di contenuti 3D sono state studiate seguendo le convenzionali tecniche applicate a video 2D. In particolare, Spatial Information (SI) e Temporal Information (TI) sono i due indicatori utilizzati nella caratterizzazione 3D di contenuti spaziali e temporali. Per presentare una descrizione completa di video 3D, deve essere considerata anche la caratterizzazione in termini di profondità. A questo riguardo, nuovi indicatori di profondità sono stati proposti sulla base di valutazioni statistiche degli istogrammi di mappe di profondità. Il primo depth indicator è basato infatti sullo studio della media e deviazione standard della distribuzione dei dati nella depth map. Un'altra metrica proposta in questo lavoro stima la profondità basandosi sul calcolo dell’entropia della depth map. Infine, il quarto algoritmo implementato applica congiuntamente una tecnica di sogliatura (thresholding technique) e analizza i valori residui dell’istogramma calcolando l’indice di Kurtosis. Gli algoritmi proposti sono stati testati con un confronto tra le metriche proposte in questo lavoro e quelle precedenti, ma anche con risultati di test soggettivi. I risultati sperimentali mostrano l’efficacia delle soluzioni proposte nel valutare la profondità in video 3D. Infine, uno dei nuovi indicatori è stato applicato ad un database di video 3D per completare la caratterizzazione di contenuti 3D.