610 resultados para relazione funzione dominio codominio spazi Lp spazi di Sobolev analisi funzionale


Relevância:

30.00% 30.00%

Publicador:

Resumo:

La dieta, nell’antica medicina greca, rappresentava il complesso delle norme di vita, come l’alimentazione, l’attività fisica, il riposo, atte a mantenere lo stato di salute di una persona. Al giorno d’oggi le si attribuisce un significato fortemente legato all’alimentazione, puo` riferirsi al complesso di cibi che una persona mangia abitualmente oppure, con un messaggio un po' più moderno, ad una prescrizione di un regime alimentare da parte di un medico. Ogni essere umano mangia almeno tre volte al giorno, ognuno in base al proprio stile di vita, cultura, età, etc. possiede differenti abitudini alimentari che si ripercuotono sul proprio stato di salute. Inconsciamente tutti tengono traccia degli alimenti mangiati nei giorni precedenti, chi più chi meno, cercando di creare quindi una pianificazione di cosa mangiare nei giorni successivi, in modo da variare i pasti o semplicemente perchè si segue un regime alimentare particolare per un certo periodo. Diventa quindi fondamentale tracciare questa pianificazione, in tal modo si puo' tenere sotto controllo la propria alimentazione, che è in stretta relazione con il proprio stato di salute e stress, e si possono applicare una serie di aggiustamenti dove necessario. Questo è quello che cerca di fare il “Menu Planning”, offrire una sorta di guida all’alimentazione, permettendo così di aver sotto controllo tutti gli aspetti legati ad essa. Si pensi, ad esempio, ai prezzi degli alimenti, chiunque vorrebbe minimizzare la spesa, mangiare quello che gli piace senza dover per forza rinunciare a quale piccolo vizio quotidiano. Con le tecniche di “Menu Planning” è possibile avere una visione di insieme della propria alimentazione. La prima formulazione matematica del “Menu Planning” (allora chiamato diet problem) nacque durante gli anni ’40, l’esercito Americano allora impegnano nella Seconda Guerra Mondiale voleva abbassare i costi degli alimenti ai soldati mantenendo però inalterata la loro dieta. George Stingler, economista americano, trovò una soluzione, formulando un problema di ottimizzazione e vincendo il premio Nobel in Economia nel 1982. Questo elaborato tratta dell’automatizzazione di questo problema e di come esso possa essere risolto con un calcolatore, facendo soprattutto riferimento a particolari tecniche di intelligenza artificiale e di rappresentazione della conoscenza, nello specifico il lavoro si è concentrato sulla progettazione e sviluppo di un ES case-based per risolvere il problema del “Menu Planning”. Verranno mostrate varie tecniche per la rappresentazione della conoscenza e come esse possano essere utilizzate per fornire supporto ad un programma per elaboratore, partendo dalla Logica Proposizionale e del Primo Ordine, fino ad arrivare ai linguaggi di Description Logic e Programmazione Logica. Inoltre si illustrerà come è possibile raccogliere una serie di informazioni mediante procedimenti di Knowledge Engineering. A livello concettuale è stata introdotta un’architettura che mette in comunicazione l’ES e un Ontologia di alimenti con l’utilizzo di opportuni framework di sviluppo. L’idea è quella di offrire all’utente la possibilità di vedere la propria pianificazione settimanale di pasti e dare dei suggerimenti su che cibi possa mangiare durante l’arco della giornata. Si mostreranno quindi le potenzialità di tale architettura e come essa, tramite Java, riesca a far interagire ES case-based e Ontologia degli alimenti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questa tesi sono stati studiati i dati presenti in letteratura sugli gli effetti benefici sulla vita a fatica della lega Ti6Al4V del processo di pallinatura,con particolare interesse agli effetti sul processo della dimensione dei pallini e della durata del processo. Inoltre si sono analizzati i dati di letteratura riguardanti l'incremento di vita a fatica della lega Ti6Al4V ottenuto tramite il processo di ripallinatura e la relazione tra pallinatura,ripallinatura e fretting fatigue. Infine sono stati esaminati i dati sul comportamento a fatica della lega Ti6Al4V grado ELI per uso biomedico sottoposta a carico oligociclico ed ad alto numero di cicli.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’analisi istologica riveste un ruolo fondamentale per la pianificazione di eventuali terapie mediche o chirurgiche, fornendo diagnosi sulla base dell’analisi di tessuti, o cellule, prelevati con biopsie o durante operazioni. Se fino ad alcuni anni fa l’analisi veniva fatta direttamente al microscopio, la sempre maggiore diffusione di fotocamere digitali accoppiate consente di operare anche su immagini digitali. Il presente lavoro di tesi ha riguardato lo studio e l’implementazione di un opportuno metodo di segmentazione automatica di immagini istopatologiche, avendo come riferimento esclusivamente ciò che viene visivamente percepito dall’operatore. L’obiettivo è stato quello di costituire uno strumento software semplice da utilizzare ed in grado di assistere l’istopatologo nell’identificazione di regioni percettivamente simili, presenti all’interno dell’immagine istologica, al fine di considerarle per una successiva analisi, oppure di escluderle. Il metodo sviluppato permette di analizzare una ampia varietà di immagini istologiche e di classificarne le regioni esclusivamente in base alla percezione visiva e senza sfruttare alcuna conoscenza a priori riguardante il tessuto biologico analizzato. Nella Tesi viene spiegato il procedimento logico seguito per la progettazione e la realizzazione dell’algoritmo, che ha portato all’adozione dello spazio colore Lab come dominio su cu cui calcolare gli istogrammi. Inoltre, si descrive come un metodo di classificazione non supervisionata utilizzi questi istogrammi per pervenire alla segmentazione delle immagini in classi corrispondenti alla percezione visiva dell’utente. Al fine di valutare l’efficacia dell’algoritmo è stato messo a punto un protocollo ed un sistema di validazione, che ha coinvolto 7 utenti, basato su un data set di 39 immagini, che comprendono una ampia varietà di tessuti biologici acquisiti da diversi dispositivi e a diversi ingrandimenti. Gli esperimenti confermano l’efficacia dell’algoritmo nella maggior parte dei casi, mettendo altresì in evidenza quelle tipologie di immagini in cui le prestazioni risultano non pienamente soddisfacenti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Per la valutazione dei consumi energetici attribuiti alla climatizzazione estiva di un sistema edificio-impianto, operante in condizioni di regime termico dinamico, è stato realizzato un modello di simulazione, sviluppato in Excel, che si avvale del metodo delle funzioni di trasferimento per la determinazione dei carichi termici. Nel modello sono state implementate numerose varianti all'impianto di condizionamento di base, permettendo rapidi confronti sui risparmi enegetici conseguibili, in funzione delle diverse caratteristiche del sistema.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi tratta alcuni dei principali filtri di diffusione non lineari per il problema di denoising di immagini. In particolare pertendo dalla formulazione del problema come minimizzazione di un funzionale introduce modelli allo stato dell'arte come il filtro Lineare, di Perona Malik, alle Variazioni Totali e per Curvatura; infine un nuovo modello diffusivo sviluppato dal prof.Antonio Marquina è per la prima volta applicato al problema di denoising. Seguono numerosi schemi numerici alle differenze finite per risolverli, che generano procedimenti iterativi espliciti, impliciti e AOS. Verrà analizzato per la prima volta per il problema di denoising uno schema conservativo al prim'ordine e di ordine superiore, dopo evere proposto una modifica per rendere idoneo la funzione diffusività. Infine vi è un ampio capitolo con considerazioni numeriche e visive sui risultati sperimentali ottenuti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le moderne tecniche di imaging e i recenti sviluppi nel campo della visione computazionale consentono sempre più diffusamente l'utilizzo di metodi di image analysis, specialmente in ambito medico e biologico, permettendo un maggiore supporto sia alla diagnosi, sia alla ricerca. Il lavoro svolto in questa tesi si pone in un contesto di ricerca di carattere interdisciplinare, e riguarda il progetto e la realizzazione di un‘interfaccia grafica per l'analisi di colture batteriche geneticamente modificate, marcate con proteine fluorescenti (GFP), acquisite tramite un microscopio ad epifluorescenza. Nota la funzione di risposta del sistema di acquisizione delle immagini, l'analisi quantitativa delle colture batteriche è effettuata mediante la misurazione di proprietà legate all'intensità della risposta al marcatore fluorescente. L'interfaccia consente un'analisi sia globale dei batteri individuati nell'immagine, sia di singoli gruppi di batteri selezionati dall'utente, fornendo utili informazioni statistiche, sia in forma grafica che numerica. Per la realizzazione dell'interfaccia sono state adottate tecniche di ingegneria del software, con particolare enfasi alla interazione uomo-macchina e seguendo criteri di usability, al fine di consentire un corretto utilizzo dello strumento anche da parte di personale senza conoscenza in campo informatico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il progetto di un parco archeologico a Verucchio si sviluppa a partire dall'analisi territoriale, paesaggistica, archeologica, del sito. Il sistema vuole restituire alla città spazi museografici idonei all'importanza del patrimonio rinvenuto. Il progetto, basandosi sull'idea del museo diffuso, si dimensiona con la città e si colloca ai margini di un sistema già definito. Il tema del rapporto col suolo risulta basilare nella composizione sia dal punto di vista delle caratteristiche geologiche del sito sia dal punto di vista progettuale. Il progetto si concretizza in tre edifici principali a carattere museografico, multimediale e ricettivo che si mimetizzano nel paesaggio senza alterare l'equilibrio esistente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il progetto che qui presentiamo, è stato elaborato all’interno del laboratorio di sintesi finale Architettura sostenibile, e sviluppa il tema della riqualificazione di un edificio di housing sociale. Perché il social housing? La scarsità di alloggi di edilizia sociale nel patrimonio esistente e il crescente numero di persone che necessitano di una residenza a basso costo, ma che non sono povere al punto tale da poter accedere all’edilizia agevolata, porta ad incentrare la nostra ricerca su questo argomento. Osservando nel nostro paese la forte necessità di ampliare e migliorare questo patrimonio, oltre al rinnovato interesse per queste tematiche nel settore pubblico, diventa per noi un momento di riflessione e confronto nel campo della progettazione architettonica. Quale l’obiettivo? Il fine di tale ricerca è quindi quello di assecondare le odierne esigenze abitative, ripensando il patrimonio esistente in termini di recupero e rifunzionalizzazione degli spazi, migliorando il livello di confort e conseguendo allo stesso tempo elevate prestazioni energetiche. L’obiettivo si allarga poi alla scala del quartiere proponendo strategie utili alla rivitalizzazione delle dinamiche sociali. Qual è il metodo? La strategia utilizzata è quello della riqualificazione sostenibile. Questa scelta è motivata dall’intento di ridurre l’uso di risorse primarie, in termini di materiali, ed evitare l’ulteriore sfruttamento di aree non ancora urbanizzate. A questo va ad aggiungersi la necessità di realizzare un intervento economicamente sostenibile, data l’assenza di risorse da investire per tali fini.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’algoritmo per la previsione del Mega-Knock si inserisce all’interno di uno dei temi cardine dell’attuale ricerca nel campo motoristico: la minimizzazione del consumo di combustibile nei motori ad alto grado di sovralimentazione, sviluppati nell’ottica del downsizing. La possibilità di prevedere l’innescarsi del Mega-Knock consente di ottimizzare la definizione dell’obiettivo di titolo, evitando arricchimenti non necessari in un range di funzionamento del motore che frequentemente viene esplorato nella normale guida su strada. Si tratterà la possibilità di utilizzare una relazione empirica per cercare di arrivare alla previsione dell’insorgere della preaccensione, per poi ricorrere ad opportune strategie motore per evitare il verificarsi del fenomeno; il tutto tramite lo sviluppo di un algoritmo in ambiente MatLab-Simulink

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Da alcuni anni Bologna è interessata da un processo di trasformazione,che investe l’economia, la società e la città fisica. Le mutazioni delle condizioni tecnologiche, economiche e ambientali inducono trasformazioni nel modo di concepire la pianificazione. In questo contesto di trasformazioni gli spazi vuoti si offrono come straordinaria risorsa di nuove opportunità progettuali in termini di qualità urbana, inoltre si pongono come occasione per avviare una seria politica di sostenibilità in grado di ridisegnare una città più attrattiva ed efficiente nei suoi servizi. La probabile prossima dismissione dello scalo merci San Donato si presenta quindi come concreta possibilità d’intervento in un’area periurbana diventata ormai vera e propria centralità.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente lavoro di tesi è frutto di una collaborazione fra il Dipartimento di Chimica Fisica ed Inorganica (gruppo del Prof. Valerio Zanotti – Mattia Vaccari, Dr. Rita Mazzoni) ed il Dipartimento di Chimica Industriale e dei Materiali (gruppo del Prof. Angelo Vaccari – Dr. Thomas Pasini, Dr. Stefania Albonetti, Prof. Fabrizio Cavani) e si inserisce il un progetto volto a valutare l’attività e la selettività del catalizzatore di idrogenazione di Shvo 1, verso l’idrogenazione selettiva del doppio legame polare del 5-idrossimetilfurfurale (HMF) in fase omogenea. L’HMF è un composto di natura organica facilmente ottenibile dalle biomasse, il quale può essere impiegato come building block per ottenere prodotti ad alto valore aggiunto per la chimica fine o additivi per biocarburanti aventi un elevato potere calorifico. In particolare la nostra attenzione si è rivolta alla produzione del 2,5-diidrossimetilfurano (BHMF), un importante building block per la produzione di polimeri e schiume poliuretaniche. Il lavoro di tesi da me svolto ha riguardato la messa a punto di una nuova metodologia sintetica per la preparazione del catalizzatore di Shvo e lo studio della sua attività catalitica nella riduzione di HMF a BHMF. Il comportamento del catalizzatore è stato monitorato studiando la resa in BHMF in funzione di tutti i parametri di reazione: temperatura, pressione di H2, solvente, rapporto molare substrato/catalizzatore, concentrazione, tempo. Successivamente è stata valutata la possibilità di riciclare il catalizzatore recuperando il prodotto di estrazione con acqua, per precipitazione o eseguendo la reazione in miscela bifasica (toluene/H2O). The present work is a collaboration between the Department of Physics and Inorganic Chemistry (group of Prof. Valerio Zanotti - Mattia Vaccari, Dr. Rita Mazzoni) and the Department of Industrial Chemistry and Materials (Group of Prof. Angelo Vaccari - Dr. Thomas Pasini, Dr. Stefania Albonetti, Prof. Fabrizio Cavani), and it’s a project devoted to evaluate the activity and selectivity of the Shvo catalyst, in the selective hydrogenation of polar double bond of 5 -hydroxymethylfurfural (HMF) in homogeneous phase. The HMF is an organic compound easily obtained from biomass, which can be used as a building block for fine chemicals abd polymer production or additives for biofuels with a high calorific value. In particular, our attention turned to the production of 2.5-bishydroxymethylfuran (BHMF), an important building block for the production of polymers and polyurethane foams. This thesis has involved the development of a new synthetic methodology for the preparation of Shvo’s catalyst and the study of its catalytic activity in the reduction of HMF to BHMF. The behavior of the catalyst was monitored by studying the yield in BHMF as a function of all the reaction parameters: temperature, pressure of H2, solvent, substrate to catalyst molar ratio, concentration, time. Subsequently it was evaluated the possibility of recycling the catalyst recovering the product of extraction with water, by precipitation or performing the reaction in biphasic mixture (toluene/H2O).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questa tesi si esaminano alcune questioni riguardanti le curve definite su campi finiti. Nella prima parte si affronta il problema della determinazione del numero di punti per curve regolari. Nella seconda parte si studia il numero di classi di ideali dell’anello delle coordinate di curve piane definite da polinomi assolutamente irriducibili, per ottenere, nel caso delle curve ellittiche, risultati analoghi alla classica formula di Dirichlet per il numero di classi dei campi quadratici e delle congetture di Gauss.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il territorio di Ferrara è caratterizzata da un’area ad elevata concentrazione di stabilimenti a rischio di incidente rilevante e dalla movimentazione di ingenti quantitativi di sostanze pericolose sulla rete stradale, ferroviaria ed in condotta. Basti pensare che nel solo Comune di Ferrara sono ben 5 le aziende che, per tipologia e quantità di sostanze presenti, rientrano nel campo di applicazione del D.Lgs. 334/99 (“Attuazione delle direttiva 96/82/CE relativa al controllo dei pericoli di incidenti rilevanti connessi con determinate sostanze pericolose”). Per questo motivo, il 24 febbraio 2012 è stato sottoscritto a Ferrara il protocollo d’intesa per l’avvio dello Studio di Sicurezza Integrato d’Area (SSIA) del polo chimico ferrarese da parte della Regione Emilia Romagna, dell’Agenzia Regionale di Protezione Civile, del Comune e della Provincia di Ferrara, dell’Ufficio Territoriale del Governo, della Direzione Regionale dei Vigili del Fuoco, dell’Agenzia Regionale Prevenzione e Ambiente e delle stesse aziende del polo chimico. L’Università di Bologna, tramite il Dipartimento di Ingegneria Chimica, Mineraria e delle Tecnologie Ambientali presso il quale è stato svolto il presente lavoro di tesi, prende parte al Consiglio Scientifico ed al Comitato Tecnico del SSIA, aventi funzioni di direzione e di gestione operativa della ricerca. Il progetto è modellato sulla precedente esperienza realizzata in regione per il polo industriale di Ravenna (progetto ARIPAR), la cui validità è stata ampiamente riconosciuta a livello nazionale ed internazionale. L’idea alla base dello studio deriva dal fatto che per avere un quadro della situazione in un’area così complessa, è necessario non solo valutare l’insieme dei rischi presenti, ma anche le loro correlazioni e le conseguenze sul territorio di riferimento. In un’analisi di rischio d’area risulta di primaria importanza l’analisi della vulnerabilità del territorio circostante il sito industriale, in quanto scenari attesi di danno di pari severità assumono una differente valenza in relazione all’effettiva presenza di bersagli nell’area di interesse. Per tale motivo il presente lavoro di tesi ha avuto l’obiettivo di istruire il censimento della vulnerabilità del territorio di Ferrara, con riferimento ai bersagli “uomo”, “ambiente” e “beni materiali”. In primo luogo si è provveduto, sulla base delle distanze di danno degli scenari incidentali attesi, a definire l’estensione dell’area in cui effettuare il censimento. Successivamente si è approfondito il censimento della vulnerabilità del bersaglio “uomo”, prendendo in considerazione sia la popolazione residente, sia i centri di vulnerabilità localizzati all’interno dell’area potenzialmente interessata da incidenti rilevanti. I centri di vulnerabilità non sono altro che luoghi ad elevata densità di persone (ad esempio scuole, ospedali, uffici pubblici, centri commerciali), spesso caratterizzati da una maggiore difficoltà di evacuazione, sia per l’elevato numero di persone presenti sia per la ridotta mobilità delle stesse. Nello specifico si è proceduto alla creazione di un database (grazie all’utilizzo del software ArcView GIS 3.2) di tutti i centri di vulnerabilità presenti, ai quali è stato possibile associare una precisa localizzazione territoriale ed altri dati di carattere informativo. In una fase successiva dello SSIA sarà possibile associare ai centri di vulnerabilità le relative categorie di popolazione, indicando per ciascuna il numero dei presenti. I dati inseriti nel database sono stati forniti in massima parte dal Comune di Ferrara e, in misura più limitata, dall’Agenzia Regionale di Protezione Civile e dalla Camera di Commercio. Presentando spesso tali dati un’aggregazione diversa da quella necessaria ai fini dello SSIA, è stato necessario un intenso lavoro di analisi, di depurazione e di riaggregazione allo scopo di renderli disponibili in una forma fruibile per lo SSIA stesso. Da ultimo si è effettuata una valutazione preliminare della vulnerabilità dei bersagli “ambiente” e “beni materiali”. Per quanto riguarda l’ambiente, si sono messe in luce le aree sottoposte a vincoli di tutela naturalistica e quindi particolarmente vulnerabili in caso di un rilascio accidentale di sostanze pericolose. Per il bersaglio “beni materiali”, non essendo stato possibile reperire dati, si è sono evidenziate le categorie di beni da censire. In conclusione, è possibile affermare che lo studio effettuato in questo lavoro di tesi, ha consentito non solo di conseguire l’obiettivo inizialmente stabilito – l’istruzione del censimento della vulnerabilità del territorio di Ferrara - ma ha contribuito anche alla definizione di una metodologia per il censimento di aree vaste che potrà essere utilmente applicata ad altre zone del territorio nazionale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questo lavoro sono descritte le attività svolte a partire dal primo avviamento dell’impianto pilota di pirolisi di pneumatici, le ottimizzazioni impiantistiche e di processo effettuate, la caratterizzazione dei materiali di partenza e dei prodotti. Particolare attenzione è stata posta alla variabilità dei prodotti in uscita in funzione di parametri di processo quali operazioni preliminari, temperatura, pressione, quantità di materiale trattato e tempo di residenza, allo scopo di ottimizzare il processo e individuare le condizioni per l’ottenimento di specifici prodotti a livello quali- e quantitativo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Diversi studi presenti in letteratura hanno messo in evidenza come il sistema di filtrazione di un olio extravergine di oliva rivesta un ruolo importante per una corretta conservazione del prodotto nel tempo; contestualmente, l’applicazione di metodi tradizionali di trattamento comporta la diminuzione di alcuni componenti minori: oltre all’allontanamento dei composti in sospensione, che concorrono a fornire l’aspetto torbido all’olio non trattato, viene allontanata acqua micro dispersa, che ha l’importante compito di solubilizzare molecole dotate di una certa polarità, principalmente fenoliche che, come noto, risultano indispensabili per la stabilità ossidativa e giocano un ruolo chiave nell’impartire all’olio extravergine di oliva alcune note sensoriali peculiari, quali l’amaro ed il piccante, percepibili in fase gustativa. Lo scopo di questo progetto sperimentale è stato di valutare la qualità chimica e sensoriale di tre oli extra vergini di oliva sottoposti ad un sistema brevettato di illimpidimento, basato sul passaggio di un flusso di gas inerte, quale l’argon, nella massa di olio d'oliva. Questo metodo può rappresentare una valida alternativa ai trattamenti tradizionali e per questo è indispensabile valutarne i punti di forza e di debolezza in relazione all’effettiva possibilità di impiego nella produzione industriale. Per questa finalità, il sistema brevettato dall'Università di Bologna e dalla Sapio (una società privata che fornisce il gas per i settori industriali e della ricerca) è stato applicato a un lotto di 50 L di ciascun olio dopo la sua produzione mediante mini-frantoio. I campioni, sia trattati che controllo, sono stati imbottigliati e conservati a temperatura ambiente e mantenuti al buio prima dell'analisi. Dopo quattro mesi di conservazione, sono stati valutati gli indici di qualità di base, tra cui acidità libera, numero di perossidi, assorbimento specifico nella zona dei dieni e trieni coniugati e il profilo sensoriale. Inoltre è stata valutata la stabilità ossidativa in condizioni forzate, il profilo dei composti maggioritari (acidi grassi) e dei composti minori (tocoferoli, fenoli, volatili, acqua). I risultati sono stati utilizzati per la comparazione della qualità complessiva degli oli extravergini di oliva sottoposti a chiarifica con sistema brevettato rispetto a quelli non trattati, permettendo una valutazione dell’effetto del nuovo sistema sulle caratteristiche chimiche e sensoriali del prodotto.