998 resultados para funzioni a variazione totale limitata sviluppabilità funzione di Vitali assoluta continuità
Resumo:
L'obiettivo di questo elaborato è sviluppare un ambiente Matlab per il progetto ed il disegno di strutture utilizzabili in campo aerospaziale, basate su elementi a forbice. Questi elementi presentano la possibilità di espandersi così che una struttura con ridotto ingombro in posizione retratta può espandersi fino ad aumentare le sue dimensioni di diverse volte. Per la progettazione di questo ambiente è stato necessario studiare le relazioni geometriche che regolano i movimenti di questi elementi. Sono poi state implementate delle funzioni in ambiente Matlab® per studiare il movimento di questi elementi, partendo dalla simulazione del singolo elemento, per poi passare a strutture sempre più complicate realizzate come assemblaggio di più strutture elementari. Inoltre è stata progettata e implementata un’interfaccia grafica intuitiva con lo scopo di facilitare il compito del progettista. L’ambiente realizzato permette il progetto e il disegno di alcune semplici strutture, ma può essere ulteriormente sviluppato per implementare un numero sempre maggiore di strutture basate su elementi a forbice. Grazie all’ambiente realizzato, inserendo pochi parametri di progetto nell’apposita interfaccia, si può ottenere il dimensionamento di una struttura, la sua visualizzazione e simulare la sua espansione. Anche se l’ambiente è stato pensato per gestire una grande varietà di soluzioni costruttive, ne sono state implementate due: una struttura piana basata sulla ripetizione circolare di un elemento a forbice e una struttura tridimensionale basata su una serie di corone circolari disposte nello spazio. Queste, seppur non riconducibili a precise realizzazioni aerospaziali, possono essere la base per la progettazione di reali applicazioni come ad esempio satelliti espandibili nel caso 3D. La tesi presenta quindi: un’analisi delle relazioni geometriche che stanno alla base del movimento degli elementi a forbice, una descrizione delle funzioni implementate per simulare le due strutture prese in esame, la presentazione di quali caratteristiche sono state implementate nell’interfaccia grafica e come questa è stata implementata in Matlab, un cenno alle conclusioni che si possono trarre e ad alcuni possibili sviluppi.
Resumo:
L’obiettivo della seguente tesi è quello di illustrare le condizioni in cui avviene il trasferimento di conoscenza da consulente a cliente, e come questo sia il fattore abilitante per l’esistenza e l’utilizzo di tale figura professionale da parte delle organizzazioni. Questa tesi nasce dall’esperienza vissuta durante la partecipazione alla XXIV edizione di Junior Consulting, un programma organizzato da CONSEL - ELIS presso Roma, che ha permesso al sottoscritto di prendere parte al progetto di consulenza “Engineering & Construction - Performance Monitoring System” commissionato da Enel Green Power. L’esigenza manifestata dall’azienda era quella di riuscire ad avere una visione chiara e definita della qualità delle attività svolte dalla funzione Engineering & Construction (E&C) e quindi l’obiettivo del progetto si è concretizzato nella definizione di un set di KPI idoneo a rappresentare una misura delle performance della suddetta funzione. Avendo testato, seppure per pochi mesi, l’attività consulenziale, il candidato ha compiuto uno studio teorico che andasse ad analizzare in dettaglio l’attività del consulente, la sua importanza nel mondo economico, il contesto in cui opera e i principali dibattiti accademici di cui è protagonista negli ultimi anni. Nell’elaborato viene analizzato il caso pratico sulla base degli studi della letteratura, con lo scopo di formulare un modello che descriva l’approccio che il consulente dovrebbe avere, durante lo svolgimento delle sue attività, per la realizzazione del trasferimento di conoscenza. Nel primo capitolo è riportato uno studio relativo all’importanza e agli effetti che le società di consulenza hanno avuto nell’ultimo secolo ed in particolare negli ultimi 30 anni. Nel secondo capitolo è descritto il core asset delle società di consulenza, ovvero la conoscenza, e come questa è strutturata e gestita. Nel terzo capitolo sono analizzate le principali teorie sviluppate sulla figura del consulente, sia l’evoluzione storica che le principali posizioni ancora oggi oggetto di dibattito. Nel quarto capitolo l’attenzione è focalizzata sul trasferimento di conoscenza da consulente a cliente e sulle condizioni in cui questo può avvenire. Nel quinto capitolo è presentato il progetto sopracitato, i cui risultati sono riportati negli allegati 1 e 2. Infine, nel sesto capitolo, è presentato un modello di approccio del consulente ottenuto dall’analisi critica del caso pratico sulla base delle evidenze emerse dallo studio della letteratura.
Resumo:
Il presente lavoro di tesi, nell’ambito della simulazione della prestazione di endoreattori a propellente solido, è volto all’indagine di particolari metodologie che permettano di considerare la presenza di inclusioni d’aria nel grano. In particolare saranno presentate procedure di gestione della triangolazione, che nel codice utilizzato rappresenta la superficie di combustione, in modo che essa possa ricalcare la superficie del difetto una volta pervenuta nell’area interessata da quest’ultimo. Infine si mostreranno risultati di simulazioni relative a motorizzazioni complete e a porzioni di queste in maniera da evidenziare effetti sulla balistica, dinamiche d’interazione fra più cavità vicine e variazione sul normale tempo di esposizione delle protezioni termiche ai gas caldi. Le conclusioni saranno tratte in relazione al modello balistico utilizzato.
Resumo:
Perché la raccolta differenziata abbia ragion d’essere, essa deve essere portata a percentuali, rispetto al totale della raccolta rifiuti, ben più rilevanti di quelle che la media raggiunge allo stato dell’arte. Per raggiungere tale scopo sono fondamentali la sensibilizzazione dell’utente e l’introduzione di metodi di raccolta che favoriscano tale differenziazione dei rifiuti, possibilmente a monte della raccolta stessa. Una buona differenziazione più a monte possibile costituisce infatti un’indiscutibile vantaggio in termini di tempi e di costi. Tra i vari metodi possibili analizzerò in questo elaborato l’adozione di dispositivi a limitazione di conferimento: andando a limitare il volume conferibile della frazione non riciclata, si instrada l’utente verso una maggiore attenzione alla differenziazione del rifiuto a monte, tendendo a uniformare quindi la quantità delle varie frazioni di rifiuto prodotte, ed in particolare limitando quella delle non differenziate.
Resumo:
UNHRD è un Network di Basi Operative di Pronto Intervento Umanitario delle Nazioni Unite, con sei sedi nel mondo, in grado di inviare aiuti di prima necessità in qualsiasi parte del mondo entro 24-48 ore. Creata nel 2000, quella di Brindisi è la prima base del Network. Nel 2014, all’interno di UNHRD di Brindisi, nasce una nuova unità di ricerca e sviluppo, chiamata UNHRD LAB, per revisionare, testare e sviluppare prodotti innovativi contribuendo al miglioramento delle risposte alle emergenze umanitarie. Il LAB, gestito da esperti del campo, lavora in collaborazione con centri di ricerca, fornitori, Organizzazioni Non Governative, Agenzie Governative e con l’Università di Bologna, grazie alla quale ho avuto la possibilità di trascorrere sei mesi all’interno di questa nuova unità. Lavorando in stretta collaborazione con Nicolas Messmer, esperto del campo e responsabile del LAB, ho appurato che la progettazione di un campo umanitario al giorno d’oggi non segue metodi standardizzati, ma si basa sul buon senso di tecnici esperti che stimano numero e tipologie di container da inviare per allestirlo, sulla base dei quali si definiscono i fabbisogni energetici da soddisfare. Al fine di migliorare e velocizzare l’allestimento di un campo umanitario, ho deciso di proporre la creazione di tre standard di campo: piccolo, medio e grande (in funzione del numero degli operatori destinati ad accogliere) definire tipologia e numero di prodotti da inviare nei tre casi, individuare il fabbisogno energetico e ottimizzarlo proponendo soluzioni a basso consumo. Uno dei focus del LAB è infatti la “green techonolgy”, ovvero la ricerca di soluzioni a basso impatto ambientale, da qui i miei studi verso l’efficientamento energetico e l’attenzione verso nuove tecnologie ecofriendly come il fotovoltaico.
Resumo:
L’imaging ad ultrasuoni è una tecnica di indagine utilizzata comunemente per molte applicazioni diagnostiche e terapeutiche. La tecnica ha numerosi vantaggi: non è invasiva, fornisce immagini in tempo reale e l’equipaggiamento necessario è facilmente trasportabile. Le immagini ottenute con questa tecnica hanno tuttavia basso rapporto segnale rumore a causa del basso contrasto e del rumore caratteristico delle immagini ad ultrasuoni, detto speckle noise. Una corretta segmentazione delle strutture anatomiche nelle immagini ad ultrasuoni è di fondamentale importanza in molte applicazioni mediche . Nella pratica clinica l’identificazione delle strutture anatomiche è in molti casi ancora ottenuta tramite tracciamento manuale dei contorni. Questo processo richiede molto tempo e produce risultati scarsamente riproducibili e legati all’esperienza del clinico che effettua l’operazione. In ambito cardiaco l’indagine ecocardiografica è alla base dello studio della morfologia e della funzione del miocardio. I sistemi ecocardiografici in grado di acquisire in tempo reale un dato volumetrico, da pochi anni disponibili per le applicazioni cliniche, hanno dimostrato la loro superiorità rispetto all’ecocardiografia bidimensionale e vengono considerati dalla comunità medica e scientifica, la tecnica di acquisizione che nel futuro prossimo sostituirà la risonanza magnetica cardiaca. Al fine di sfruttare appieno l’informazione volumetrica contenuta in questi dati, negli ultimi anni sono stati sviluppati numerosi metodi di segmentazione automatici o semiautomatici tesi alla valutazione della volumetria del ventricolo sinistro. La presente tesi descrive il progetto, lo sviluppo e la validazione di un metodo di segmentazione ventricolare quasi automatico 3D, ottenuto integrando la teoria dei modelli level-set e la teoria del segnale monogenico. Questo approccio permette di superare i limiti dovuti alla scarsa qualità delle immagini grazie alla sostituzione dell’informazione di intensità con l’informazione di fase, che contiene tutta l’informazione strutturale del segnale.
Resumo:
L’oggetto di questa tesi di laurea è un intervento di riqualificazione delle Ex Officine Meccaniche Reggiane, un’area industriale, sita a Reggio Emilia, che nel corso degli anni ha subìto una graduale dismissione, sino allo stato attuale di completo abbandono. Il tema riveste un’importanza focale nelle città moderne, affette da un elevato livello di migrazione e riorganizzazione dell’industria, che trasforma vaste aree di produzione in vuoti urbani di difficile gestione. I problemi fondamentali sono infatti la notevole dimensione degli stabilimenti abbandonati e la loro posizione, un tempo strategica, ma che ora risulta critica per una lettura unitaria della città e delle sue connessioni. L’area in oggetto, dedicata nel corso degli anni a diversi tipi di produzione, tra le quali quelle ferroviaria e dell’aviazione, è locata in prossimità del centro storico di Reggio Emilia, separati solamente dalla linea ferroviaria storica con cui si interfaccia direttamente. L’espansione della città ha portato ad inglobare lo stabilimento, che risulta quindi chiuso in se stesso e fortemente vincolante per le connessioni della città. Gli scopi dell’intervento sono quindi quelli di generare connessioni tra le parti di città circostanti e di permettere il riappropriamento dell’area alla popolazione. Per raggiungere tali scopi è stato necessario aprire il forte limite perimetrale esistente ed individuare nuovi percorsi di attraversamento, ma anche nuove funzioni ed attrattività da inserire. Vista la frammentazione dell’area in una serie di edifici, lo studio si è poi concentrato su un edificio tipo, allo scopo di individuare un’ipotesi di intervento più dettagliata. Le strategie degli interventi sono il risultato di interazione tra le necessità di mantenere le strutture ed il carattere dell’area, di introdurre funzioni attrattive e di ottenere adeguati livelli di comfort ambientale e prestazioni energetiche.
Resumo:
Il Palazzo è un'architettura ben presente nell’immaginario collettivo soprattutto per il fatto che sia comunemente indicato come l’antica dimora dei Manfredi, signori della città. Tanto importante da sollevare sulla stampa locale periodiche ondate di indignazione per il suo stato di abbandono. Il recente studio di Lucio Donati dimostra come gli antichi proprietari fossero in realtà i Bazolini prima e i Viarani poi. A conclusione dell’articolo proponeva quindi di chiamare il fabbricato secondo il nome dei reali proprietari. In questa tesi ho deciso invece di chiamare il fabbricato con il nome di Casa Caldesi. Il precario stato di conservazione indica l’urgenza di un pronto intervento di restauro. Questa tesi propone una delle possibili ipotesi di progetto. Visto lo stato delle cose ho scelto un progetto di restauro che prevedesse una funzione mista residenziale e ad uffici. Mantenendo lungo via Manfredi le vetrine e quindi la funzione commerciale al dettaglio negli spazi che già una volta ospitavano i negozi. Il progetto si è soffermato in particolare nel disegno delle residenze. L’obiettivo di ripristinare i grandi ambienti decorati è stato rispettato attraverso un paziente lavoro di distribuzione capace di conservare e valorizzare la bellezza dei locali, senza perdere i requisiti di funzionalità e comodità adeguati alle moderne residenze. Questa scelta funzionale anche se può sembrare scontata e compatibile con un palazzo che da sempre è stata una residenza, presenta tuttavia alcune problematiche. L’ipotesi di restauro quindi si pone il problema di organizzare gli spazi del palazzo in appartamenti ed uffici, ripristinare la spazialità di tutti i grandi ambienti decorati e renderli compatibili con le esigenze abitative odierne.
Resumo:
Questa ricerca affronta in maniera interdisciplinare il tema delle funzioni polinomiali definite sugli anelli degli interi modulo la potenza di un numero primo. In primo luogo è stato esaminato il caso particolare del campo Zp, dimostrando che in esso tutte le funzioni sono polinomiali. In seguito è stato calcolato il numero delle funzioni polinomiali negli interi modulo 9 e modulo 25, mostrando un procedimento che può essere esteso a qualsiasi potenza di un numero primo. Esso fa uso di alcuni risultati di teoria dei numeri e di aritmetica e affronta il tema da un punto di vista prettamente algebrico. A queste dimostrazioni è stato affiancato un esperimento di tipo statistico, il cui obiettivo è cercare una regolarità che permetta, dati il numero primo p e il suo esponente n, di calcolare immediatamente il numero delle funzioni polinomiali nell'anello degli interi modulo p^n. Sono state presentate due congetture, ottenute utilizzando strumenti di tipo informatico: un software di calcolo e un linguaggio di programmazione ad alto livello. Gli strumenti della statistica descrittiva, in particolare il test di Pearson, si sono rivelati essenziali per verificare l'adeguatezza delle supposizioni. Questa ricerca può essere considerata il punto di partenza per dimostrare (o confutare) quello che è stato ipotizzato attraverso un'analisi di tipo sperimentale.
Resumo:
Introduzione allo studio dell'omotopia di varietà differenziabili in relazione ai punti critici di funzioni di Morse definite su di esse con particolare attenzione al cambiamento di omotopia dell'insieme di sottolivello al passaggio di un valore critico. Applicazione al complesso di catene di Morse-Smale-Witten e dimostrazione dell'equivalenza tra l'omologia definita da questo complesso e l'omologia classica.
Resumo:
Le variabili ambientali e lo sfruttamento della pesca sono dei possibili fattori nel determinare la struttura della comunità demersale. L’area di studio è il Golfo di Antalya, con un area aperta ed una chiusa ad ogni attività di pesca, il periodo di studio ha coperto tre stagioni (primavera, estate, autunno). Lo scopo è quello di delineare un quadro generale sulla distribuzione spaziale e temporale delle risorse alieutiche demersali in quest’area. In questo lavoro di tesi la PCA è stata usata al fine di determinare le variabili ambientali (ossigeno, salinità, temperatura, pH, materia sospesa) che determinano maggiormente la differenza tra le stazioni, tecniche di analisi multivariata hanno invece indagato una possibile variazione su scala spaziale e temporale dei parametri abiotici. La Cluster Analysis effettuata sui dati di abbondanza ha delineato quattro raggruppamenti principali, due ad una profondità minore di 100 m e due ad una profondità maggiore (40% di similarità). Questi risultati sono confermati dall’analisi MDS. L’analisi SIMPER ha messo in evidenza le specie che maggiormente incidono sulla differenza tra strati di profondità. Gli indici di biodiversità sono stati calcolati per indagare la diversità e la variabilità temporale e spaziale della comunità demersale. Due procedure la BIO-ENV e la DistLM (Distance-based linear models) sono state effettuate per individuare le variabili abiotiche che potrebbero essere responsabili dei diversi raggruppamenti nella struttura del popolamento demersale. Le specie commerciali: Mullus barbatus, Upeneus moluccensis, Upeneus pori sono state prese come oggetto per la ricerca di possibili effetti della pesca a livello di popolazione. Per i dati di abbondanza e di biomassa di queste specie è stata eseguita l’analisi multivariata MANOVA (Multivariate Analysis of Variance) al fine di trovare eventuali variazioni dovute ai fattori profondità, stagione e transetto. Per ogni specie è stata valutata la sex ratio. Il metodo Bhattacharya ha permesso di determinare le classi di età e la loro abbondanza. In ultimo la relazione peso-lunghezza è stata ricavata separatamente per gli individui maschi e femmine al fine di determinare il tipo di crescita per ogni sesso.
Resumo:
Molte applicazioni sono legate a tecniche di rilassometria e risonanza magnetica nucleare (NMR). Tali applicazioni danno luogo a problemi di inversione della trasformata di Laplace discreta che è un problema notoriamente mal posto. UPEN (Uniform Penalty) è un metodo numerico di regolarizzazione utile a risolvere problemi di questo tipo. UPEN riformula l’inversione della trasformata di Laplace come un problema di minimo vincolato in cui la funzione obiettivo contiene il fit di dati e una componente di penalizzazione locale, che varia a seconda della soluzione stessa. Nella moderna spettroscopia NMR si studiano le correlazioni multidimensionali dei parametri di rilassamento longitudinale e trasversale. Per studiare i problemi derivanti dall’analisi di campioni multicomponenti è sorta la necessità di estendere gli algoritmi che implementano la trasformata inversa di Laplace in una dimensione al caso bidimensionale. In questa tesi si propone una possibile estensione dell'algoritmo UPEN dal caso monodimensionale al caso bidimensionale e si fornisce un'analisi numerica di tale estensione su dati simulati e su dati reali.
Resumo:
L’autore tedesco Erich Kästner è noto al pubblico italiano soprattutto per la narrativa per ragazzi, ma tende ad essere dimenticato quando si affronta la letteratura del dopoguerra. Anch’egli, infatti, diede un contributo fondamentale alla Trümmerliteratur, ovvero la letteratura delle macerie, un movimento letterario nato in Germania nel secondo dopoguerra e che si poneva come obiettivo quello di testimoniare la crudezza della seconda guerra mondiale. Scopo dell’elaborato è quindi quello di fare luce sul contributo di Kästner alla Trümmerliteratur mediante la proposta di traduzione dal tedesco all’italiano di due testi tratti dalla raccolta Der tägliche Kram [Le cianfrusaglie di tutti i giorni]. Dopo una breve introduzione all’autore, al movimento letterario e all’opera in questione, vengono analizzati più attentamente i due testi, definendone la tipologia e la funzione testuale, aspetti fondamentali ai fini traduttivi. Nel quarto capitolo si trovano le traduzioni italiane affiancate dal testo originale tedesco in modo da facilitarne il confronto. L’affiancamento dei testi è inoltre necessario per un riconoscimento più immediato delle strategie traduttive, che vengono approfondite nel quinto capitolo.
Resumo:
La trasformata di Fourier (FT) è uno strumento molto potente implementato, oggi, in un enorme numero di tecnologie. Il suo primo esempio di applicazione fu proprio il campionamento e la digitalizzazione di segnali analogici. Nel tempo l'utilizzo della FT è stato ampliato a più orizzonti in ambito digitale, basti pensare che il formato di compressione '.jpg' utilizza una FT bidimensionale, mentre uno degli ultimi esempi di applicazione si ha nell'imaging digitale in ambito medico (risonanza magnetica nucleare, tomografia assiale computerizzata TAC ecc...). Nonostante gli utilizzi della FT siano molto diversificati il suo basilare funzionamento non è mai cambiato: essa non fa altro che modificare il dominio di una funzione del tempo (un segnale) in un dominio delle frequenze, permettendo così lo studio della composizione in termini di frequenza, ampiezza e fase del segnale stesso. Parallelamente all'evoluzione in termini di applicazioni si è sviluppato uno studio volto a migliorare e ottimizzare la computazione della stessa, data l'esponenziale crescita del suo utilizzo. In questa trattazione si vuole analizzare uno degli algoritmi di ottimizzazione più celebri e utilizzati in tal senso: la trasformata veloce di Fourier (Fast Fourier Transformation o FFT). Si delineeranno quindi le caratteristiche salienti della FT, e verrà introdotto l'algoritmo di computazione tramite linguaggio C++ dedicando particolare attenzione ai limiti di applicazione di tale algoritmo e a come poter modificare opportunamente la nostra funzione in modo da ricondurci entro i limiti di validità.
Resumo:
Il lavoro svolto in questa tesi si inserisce in una ricerca iniziata pochi anni fa dal Dott. Bontempi. Riguarda la stima della fluenza fotonica tramite due metodi diversi da quelli adottati nella letteratura. I metodi proposti dalla letteratura valutano operativamente la fluenza fotonica ad alta intensità. Sono basati sulla correlazione tra fluenza fotonica e quantità dosimetriche, come l’esposizione o l’Air Kerma. Altre correlano la valutazione dell’HVL con la fluenza dei fotoni. Sebbene queste metodologie siano semplici da implementare, la valutazione della fluenza dei fotoni è ottenuta tramite il concetto di equivalenza del fascio monocromatico. Questo causa discrepanze nella valutazione della reale quantità di fotoni emessa dalla sorgente di raggi X. Il Dott. Bontempi ha sviluppato due diverse metodologie per il calcolo della fluenza: il primo metodo è basato sul calcolo del Kerma unito ad un modello semi empirico per il computo dello spettro dei raggi X. Il secondo metodo è invece basato sulla valutazione della funzione nNPS registrata in un’immagine a raggi X e quella ottenuta simulando il sistema sorgente-rivelatore.