905 resultados para teorema Borsuk-Ulam spazi di orbite gruppo fondamentale rivestimenti
Resumo:
In questo lavoro di ricerca ho esaminato la Teoria della Transizione e più nello specifico lo sviluppo di un possibile Living Lab della sostenibilità nel contesto universitario. In primo luogo, ho analizzato la situazione attuale per quanto riguarda lo sviluppo sostenibile in un contesto generale. Inoltre ho dovuto analizzare anche quali sono gli indici che usiamo per definire il benessere umano e su cui basiamo la nostra intera economia, come ad esempio il PIL. In secondo luogo, ho definito la Teoria della Transizione in ambito generale elencandone i vari strumenti di applicazione e i metodi. In fine ho cercato di applicare la Teoria della Transizione nel contesto della sostenibilità in ambito universitario, utilizzando i progetti di Transizione attraverso i Living Lab di “Terracini in Transizione” dell’Università di Bologna e “GOU Living Lab” dell’Università di Utrecht. Dai risultati ottenuti ho definito i limiti e le potenzialità che questi progetti di Living Lab avevano attraverso l’utilizzo della SWOT analysis. La quale ha evidenziato la necessità della costituzione di un gruppo all’interno dell’Università di Bologna che si occupi della gestione dei progetti green di Transizione, come nel contesto in cui mi sono venuto a trovare nell’Università di Utrecht con la presenza del Green Office.
Resumo:
In questo elaborato si presenta il teorema del viriale, introdotto per la prima volta da R. J. E. Clausius nel 1870. É una relazione fra energia cinetica e poteziale totali di un sistema che, se soddisfatta, implica che questo sia in equilibrio. Sono equivalenti le affermazioni: "sistema virializzato" e "sistema in equilibrio". Sebbene in ordine cronologico la prima formulazione del teorema sia stata quella in forma scalare, ricaveremo, per maggiore generalità, la forma tensoriale, dalla quale estrarremo quella scalare come caso particolare. Sono di nostro interesse i sistemi astrofisici dinamici autogravitanti costituiti da N particelle (intese come stelle, gas etc.), perciò la trattazione teorica è dedotta per tali configurazioni. In seguito ci concentreremo su alcune applicazioni astrofisiche. In primo luogo analizzeremo sistemi autogravitanti, per cui l'unica energia potenziale in gioco è quella dovuta a campi gravitazionali. Sarà quindi ricavato il limite di Jeans per l'instabilità gravitazionale, con conseguente descrizione del processo di formazione stellare, la stima della quantità di materia oscura in questi sistemi e il motivo dello schiacciamento delle galassie ellittiche. Successivamente introdurremo nell'energia potenziale un termine dovuto al campo magnetico, seguendo il lavoro di Fermi e Chandrasekhar, andando a vedere come si modifica il teorema e quali sono le implicazioni nella stabilità delle strutture stellari. Per motivi di spazio, queste trattazioni saranno presentate in termini generali e con approssimazioni, non potendo approfondire casi più specifici.
Resumo:
La struttura di gruppo è una delle strutture algebriche più semplici e fondamentali della matematica. Un gruppo si può descrivere in vari modi. Noi abbiamo illustrato la presentazione tramite generatori e relazioni, che consiste sostanzialmente nell'elencare le "regole di calcolo" che valgono nel gruppo considerato, oltre a quelle che derivano dagli assiomi di gruppo. L'idea principale di questa tesi è quella di mostrare come un argomento così tecnico e specifico possa essere reso "elementare" e anche divertente. Siamo partiti dalla costruzione di un gioco, inventando regole da aggiungere di volta in volta. Abbiamo poi tentato di spiegare il medesimo concetto da un punto di vista teorico, tramite la teoria dei gruppi liberi. Si tratta di gruppi che hanno un insieme di generatori soddisfacenti unicamente alle relazioni che sono conseguenza degli assiomi di gruppo.Ogni gruppo è un quoziente di un gruppo libero su un appropriato insieme di generatori per un sottogruppo normale, generato dalle relazioni. Infine si è illustrato il problema della parola formulato da Max Dhen nel 1911, e si è visto come tale problema è risolubile per i gruppi liberi.
Resumo:
Argomento del lavoro è stato lo studio di problemi legati alla Flow-Asurance. In particolare, si focalizza su due aspetti: i) una valutazione comparativa delle diverse equazioni di stato implementate nel simulatore multifase OLGA, per valutare quella che porta a risultati più conservativi; ii) l’analisi della formazione di idrati, all’interno di sistemi caratterizzati dalla presenza di gas ed acqua. Il primo argomento di studio nasce dal fatto che per garantire continuità del flusso è necessario conoscere il comportamento volumetrico del fluido all’interno delle pipelines. Per effettuare tali studi, la Flow-Assurance si basa sulle Equazioni di Stato cubiche. In particolare, sono state confrontate: -L’equazione di Soave-Redlich-Kwong; -L’equazione di Peng-Robinson; -L’equazione di Peng-Robinson modificata da Peneloux. Sono stati analizzati 4 fluidi idrocarburici (2 multifase, un olio e un gas) con diverse composizioni e diverse condizioni di fase. Le variabili considerate sono state pressione, temperatura, densità e viscosità; sono state poi valutate le perdite di carico, parametro fondamentale nello studio del trasporto di un fluido, valutando che l'equazione di Peng-Robinson è quella più adatta per caratterizzare termodinamicamente il fluido durante una fase di design, in quanto fornisce l'andamento più conservativo. Dopo aver accertato la presenza di idrati nei fluidi multifase, l’obiettivo del lavoro è stato analizzare come il sistema rispondesse all’aggiunta di inibitori chimici per uscire dalla regione termodinamica di stabilità dell’idrato. Gli inibitori utilizzati sono stati metanolo e mono-etilen-glicole in soluzione acquosa. L’analisi è stata effettuata confrontando due metodi: -Metodo analitico di Hammerschmidt; -Metodo iterativo con PVTSim. I risultati ottenuti hanno dimostrato che entrambi gli inibitori utilizzati risolvono il problema della formazione di idrato spostando la curva di stabilità al di fuori delle pressioni e temperature che si incontrano nella pipeline. Valutando le quantità da iniettare, il metodo di Hammerschmidt risulta quello più conservativo, indicando portate maggiori rispetto al PVTsim, soprattutto aggiungendo metanolo.
Resumo:
Questo lavoro di tesi si inserisce nel recente filone di ricerca che ha lo scopo di studiare le strutture della Meccanica quantistica facendo impiego della geometria differenziale. In particolare, lo scopo della tesi è analizzare la geometria dello spazio degli stati quantistici puri e misti. Dopo aver riportato i risultati noti relativi a questo argomento, vengono calcolati esplicitamente il tensore metrico e la forma simplettica come parte reale e parte immaginaria del tensore di Fisher per le matrici densità 2×2 e 3×3. Quest’ultimo altro non é che la generalizzazione di uno strumento molto usato in Teoria dell’Informazione: l’Informazione di Fisher. Dal tensore di Fisher si può ottenere un tensore metrico non solo sulle orbite generate dall'azione del gruppo unitario ma anche su percorsi generati da trasformazioni non unitarie. Questo fatto apre la strada allo studio di tutti i percorsi possibili all'interno dello spazio delle matrici densità, che in questa tesi viene esplicitato per le matrici 2×2 e affrontato utilizzando il formalismo degli operatori di Kraus. Proprio grazie a questo formalismo viene introdotto il concetto di semi-gruppo dinamico che riflette la non invertibilità di evoluzioni non unitarie causate dall'interazione tra il sistema sotto esame e l’ambiente. Viene infine presentato uno schema per intraprendere la stessa analisi sulle matrici densità 3×3, e messe in evidenza le differenze con il caso 2×2.
Resumo:
I pattern di espressione genica permettono di valutare se gli organismi siano soggetti a stress ambientali, spesso associati a stress ossidativo e produzione di specie reattive dell’ossigeno, che possono essere analizzate per studiare gli effetti sub-letali indotti dall’ambiente negli organismi. Scopo di questa ricerca è stato valutare la possibilità di utilizzo dell’ascidia coloniale B. schlosseri come biomarker in ambiente lagunare. Le colonie, esposte a diverse condizioni ambientali nella Laguna di Venezia, sono state confrontate con esemplari allevati in condizioni di controllo. La ricerca si è concentrata in 2 siti con diverso grado di idrodinamicità e impatto antropico. Mentre nel sito 1, più vicino alla bocca di porto, si è rilevata la presenza di Tunicati, il sito 2 ne è privo. Il sito 2 ha registrato valori di pH e temperatura più alti. Inoltre, nel sito 2 è stata rilevata una mortalità maggiore delle colonie e alterazioni della morfologia nelle colonie sopravvissute. Ciò suggerisce che il sito 2 presenti condizioni avverse per B. schlosseri. Sui campioni di B. schlosseri sono state eseguite PCR semiquantitative per analizzare l’espressione di un gruppo di geni coinvolto nella risposta allo stress ossidativo: la glutammato cistein ligasi la glutatione sintetasi, 2 isoforme di glutatione perossidasi e la superossido dismutasi (SOD). Tutti i geni presentano livelli di trascrizione doppi nelle colonie del sito 1 rispetto al controllo. Viceversa, il sito 2 mostra livelli di espressione di poco superiori al controllo. Analisi spettrofotometriche evidenziano che le attività enzimatiche di SOD e catalasi sono più alte nel sito 2 rispetto al sito 1. Si può pertanto ipotizzare che le colonie esposte al sito 2 siano soggette a un maggiore stress. B. schlosseri appare dunque un buon indicatore dello stato ecologico dell’ambiente lagunare, entro parametri di pH e temperatura in cui abitualmente vive.
Resumo:
Effettuare la calibrazione di un motore a combustione interna richiede precisione e al contempo tempi ridotti per poter essere eseguita in modo rapido e sicuro sui banchi prova. In questo elaborato viene trattata in particolare la calibrazione dell’anticipo di accensione, parametro fondamentale per massimizzare la PMI e quindi le prestazioni di un motore da corsa, ma altrettanto delicato per quanto riguarda il fenomeno della detonazione in cui si può incorrere attuando combustioni troppo anticipate durante la ricerca della fase ottimale. Con l’esigenza di dover calibrare il singolo motore in maniera non distruttiva, utilizzando una procedura di calibrazione automatica, è quindi necessario ricorrere a un sistema che sia in grado di prevedere il valore di anticipo che genererà un livello di detonazione ritenuto pericoloso per l’integrità del motore. Tale operazione deve essere effettuata con la miglior precisione possibile, in modo tale che venga esplorato tutto il campo dei valori di anticipo attuabili dato che la condizione di massima prestazione si trova a ridosso delle condizioni detonanti, quindi nella ricerca dell’ottimo ci si può imbattere in situazioni dannose. In questo elaborato è stata analizzata e rivista una procedura in ambiente MATLAB al fine di ridurne i tempi di calcolo fra una rampa di calibrazione e l’altra senza rinunciare all’accuratezza della previsione dell’anticipo limite ponendo l’attenzione sui parametri più importanti che regolano l’algoritmo di previsione. Inoltre per il calcolo dell’anticipo limite è stato implementato un approccio alternativo di tipo probabilistico basato sui dati sperimentali ciclo per ciclo, valutando anche modelli alternativi da applicare per il calcolo del MAPO statistico.
Resumo:
L’oggetto di studio di questo lavoro, svolto presso l’azienda Vire Automation del gruppo Bucci Industries di Faenza, è una macchina per il packaging di prodotti igienico-sanitari, più precisamente pannolini baby. Dopo una prima indagine di mercato svolta con l’aiuto dei commerciali dell’azienda, si sono ipotizzate una serie di soluzioni tecniche per migliorare il funzionamento e le prestazioni della macchina. Tramite uno strumento detto Casa della qualità si sono evidenziate le soluzioni tecniche che risultano più apprezzate dal mercato e per questo posseggono una maggior priorità di realizzazione. Si è intervenuti su di un gruppo funzionale per lo spostamento orizzontale del prodotto che agisce superiormente rispetto al pianale di processo e sul trasporto pioli che invece agisce per ostacolo tra cilindri di acciaio ed i prodotti. In particolare per il primo si è realizzato un apposito studio delle grandezze cinematiche in gioco e, dopo una progettazione 3D, si sono stimate le coppie motrici richieste dal nuovo asse che è risultato vantaggioso rispetto al precedente. Per il secondo invece, vista l’esigenza di ottenere un gruppo rifasatore che permettesse alla macchina di funzionare correttamente nonostante i ritardi di arrivo dei prodotti dalla linea di produzione, si è realizzata una nuova gestione logica del gruppo per sopperire alla peggior condizione di funzionamento verificabile e si è riprogettato il gruppo per dotarlo delle nuove necessarie caratteristiche.
Resumo:
Argomento della presente tesi è il calcolo integrale. Nella prima parte dell'elaborato viene descritta l'evoluzione storica delle idee presenti già nella matematica antica, che conducono infine alla creazione del calcolo integrale vero e proprio, nei fondamentali lavori di Newton e Leibniz. Segue una sintetica descrizione delle sistematizzazioni formali della teoria dell'integrazione, ad opera di Riemann e successivamente Lebesgue, oltre alla generalizzazione dell'integrale di Riemann ideata da Sieltjes, di grande importanza, fra l'altro, nel calcolo delle probabilità. Si dà poi conto degli spazi funzionali con norme integrali (L^p, spazi di Sobolev). L'ultimo capitolo è dedicato all'insegnamento del calcolo integrale nella scuola secondaria in Italia, e alla sua evoluzione dall'inizio del XX secolo a oggi.
Resumo:
Negli ultimi cinque anni lo sviluppo di applicazioni mobile ha visto un grandissimo incremento dovuto pricipalmente all’esplosione della diffusione di smartphone; questo fenomeno ha reso disponibile agli analisti una enorme quantità di dati sulle abitudini degli utenti. L’approccio centralizzato nella distribuzione delle applicazioni da parte dei grandi provider quali Apple, Google e Microsoft ha permesso a migliaia di sviluppatori di tutto il mondo di raggiungere con i loro prodotti gli utenti finali e diffondere l’utilizzo di applicativi installabili; le app infatti sono diventate in poco tempo fondamentali nella vita di tutti i giorni e in alcuni casi hanno sostituito funzioni primarie del telefono cellulare. Obiettivo principale di questo studio sarà inferire pattern comportamentali dall’analisi di una grossa mole di dati riguardanti l’utilizzo dello smartphone e delle app installabili da parte di un gruppo di utenti. Ipotizzando di avere a disposizione tutte le azioni che un determinato bacino di utenza effettua nella selezione delle applicazioni di loro interesse quando accedono al marketplace (luogo digitale da cui è possibile scaricare nuove applicazioni ed installarle) è possibile stimare, ovviamente con un certo margine di errore, dati sensibili dell’utente quali: Sesso, Età, Interessi e così via analizzandoli in relazione ad un modello costruito su dati di un campione di utenti ben noto. Costruiremo così un modello utilizzando dati di utenti ben noti di cui conosciamo i dettagli sensibili e poi, tramite avanzate tecniche di regressione e classificazione saremo in grado di definire se esiste o meno una correlazione tra le azioni effettuate su uno Smartphone e il profilo dell’utente. La seconda parte della tesi sarà incentrata sull'analisi di sistemi di raccomandazioni attualmente operativi e ci concentreremo sullo studio di possibili sviluppi sviluppi futuri di questi sistemi partendo dai risultati sperimentali ottenuti.
Resumo:
Seguendo le tracce della metologia proposta da Dilthey fino a Heidegger riguardo il concetto di Erlebnis (esperienza vissuta), si rintracciano i rapporti tra vita e opera nella produzione poetica di Giorgio Bassani che si prolunga dal 1939 al 1982. La ricerca evidenzia le conessioni della dinamica tra biografia e produzione artistica e il conseguente processo d’interiorizzazione psicologica che il percorso autobiografico dell’ autore rivela nella sua poesia. L’ impatto sul piano psicologico che lo spazio autorappresentato ha nello stesso autore, diventa nei testi proposti spazi di sperienze interiori [Fremont 1976]. Le proposte metodologiche sopra esposte possono essere un utile riferimento per un’analisi critica della poesia bassaniana, che può essere letta o come esperienza autonoma, con una sua originalità di stile e una sua ampiezza d’occasioni, o come laboratorio di temi e nodi che avranno uno sviluppo narrativo, una volta scorporati dalla matrice originaria e amplificati nella loro carica dinamica di proiezioni e figurazioni.
Resumo:
L’apparato respiratorio rappresenta il bersaglio di numerose sostanze tossiche aerodisperse che rivestono un ruolo chiave nella patogenesi della maggior parte delle patologie polmonari e pleuriche, sia benigne che maligne. Nonostante per alcune di esse siano noti specifici fattori di rischio, le sole attività di prevenzione primaria non sono sufficienti a limitarne la diffusione. Si rende quindi necessario attuare adeguate misure di prevenzione secondaria per la diagnosi di malattie potenzialmente curabili allo stadio iniziale, in modo da aumentare l’efficacia dei trattamenti terapeutici e le possibilità di guarigione. Un approccio non invasivo per lo studio dei meccanismi fisiopatologici alla base delle patologie polmonari e pleuriche potrebbe essere effettuato anche con nuove metodiche (es. naso elettronico), al fine di identificare e validare nuovi biomarcatori per un più specifico approccio diagnostico. Il lavoro scientifico ha riguardato inizialmente l’identificazione di un indicatore o di un gruppo di indicatori dotati di potere diagnostico sufficientemente elevato per poter discriminare precocemente, nell’ambito di soggetti con pregressa esposizone ad asbesto, patologie benigne, sia polmonari che pleuriche, da patologie maligne. Successivamente l’attenzione è stata rivolta alla diagnosi precoce di patologie neoplastiche a carico del solo parenchima polmonare, valutando il potere discriminante di un pattern di composti organici volatili (VOCs, tra cui pentano, 2-metilpentano, esano, etilbenzene, eptanale e trans-2-nonenale) raccolti con metodiche non invasive e dotati di potere diagnostico tale da discriminare patologie benigne da patologie maligne potenzialmente curabili in soggetti ad alto rischio di sviluppare cancro del polmone. Infine abbiamo tentato di ottimizzare i parametri di impostazione e raccolta di un nuovo strumento: il naso elettronico. Su di esso esistono alcuni lavori in letteratura in cui ne vengono descritte le potenzialità in ambito diagnostico per il riconoscimento di specifici pattern suggestivi di patologie polmonari, sia flogistiche (TBC, BPCO) che neoplastiche (mesotelioma, NSCLC). Purtroppo nessuno di questi lavori definisce le condizioni ottimali di utilizzo, i limiti dello strumento e le interferenze di fattori ambientali e soggettivi riguardo al segnale elaborato. Il lavoro si è concentrato soprattutto sull’indagine delle condizioni ottimali di utilizzo e sull’eventuale condizionamento del segnale da parte di determinate variabili ambientali (es. umidità) o individuali (es. fumo, cibo, alcol).
Resumo:
L’oggetto di analisi del presente lavoro di tesi è il modello di Operational Excellence noto come World Class Manufacturing in particolare l’approccio allo step 6 del pilastro Professional Maintenance, dove si richiede l’implementazione di un sistema di manutenzione PREDITTIVA, la cosiddetta CBM (Conditional Based Maintenance) . Il modello a cui si fa riferimento fu teorizzato dal professore giapponese H. Yamashina verso la metà degli anni 2000 e giunse in Italia attorno al 2005, quando Fiat Group (oggi FCA) lo adottò come approccio standard alla gestione della produzione. Questo tipo di analisi, orientata verso una prospettiva pratica più che teorica, deriva direttamente da un’esperienza sul campo che ho svolto all’interno di un’azienda che ha aderito al World Class Manufacturing (WCM). Nel capitolo 1 verrà proposto un excursus delle metodologie alla base del WCM e del percorso storico che ha portato alla formulazione del modello. Nel secondo capitolo verrà proposto un caso di applicazione del WCM all'interno di un Gruppo, nella fattispecie Ariston Thermo Group (ATG). Dopo un’overview sul Gruppo e sulla storia della sua adesione al programma di miglioramento, la trattazione si focalizza sull'approccio di ATG al WCM. Nel terzo capitolo verrà introdotta la Manutenzione Professionale secondo le principali politiche manutentive schematizzate dal WCM. Verranno presentate singolarmente per sottolineare i loro obiettivi seguiti dai vantaggi e svantaggi che si possono ottenere nell’implementare ogni singola politica. Nel quarto capitolo verranno specificate sotto un aspetto prettamente pratico le varie attività svolte dalla PM così da evidenziare lo sviluppo e il miglioramento continuo che essa sta ottenendo dall’introduzione del WCM; principalmente la presentazione delle varie attività si riferiscono al passaggio allo step 6 della PM, dove verrà presentata approfonditamente elencando e analizzando tutte le attività svolte per approcciarsi alla CBM.
Resumo:
Philosopher's index
Resumo:
Il concetto di funzione è tra i più rilevanti, ma anche tra i più controversi concetti matematici. In questo lavoro di tesi si è esaminato questo concetto a partire dalle sue origini fino ad arrivare alla definizione bourbakista, che è quella insegnata a tutti gli studenti a partire dalla scuola secondaria fino ad arrivare all'università. Successivamente si è analizzato in che modo questo delicato concetto viene presentato agli studenti delle scuole secondarie di secondo grado, osservando come le recenti Indicazioni Nazionali e Linee Guida danno suggerimenti per affrontare questo argomento, anche esaminando alcuni libri di testo. Infine si è descritto come il concetto di funzione abbia preso, in tempi relativamente recenti, un respiro più ampio dando luogo all'analisi funzionale, laddove le funzioni non sono più viste come corrispondenza punto a punto ma come oggetti che vengono osservati globalmente. Si considereranno infatti nuovi spazi i cui elementi sono funzioni.