118 resultados para Categorie monoidali monoide di Frobenius equazione di Yang-Baxter
Resumo:
Decolonizzare il progetto di riqualificazione interrogandosi su chi siano i reali beneficiari dell’intervento, in particolar modo quando si opera all’interno dei délaissés o del Terzo paesaggio (Patrick Bouchain, Forêt des délaissés-Gilles Clemant, Manifesto del Terzo paesaggio), non è solo atto speculativo ma anche etico-politico per un’architettura che ha il dovere di confrontarsi prolificamente con le sfide della contemporaneità. Si sono analizzate le origini e i motivi alla base del pensiero coloniale, oggetto di studio dei post-colonial studies. Gli studi decoloniali cercano di offrire nuove chiavi di lettura per l’individuazione della permanenza delle categorie coloniali nella descrizione dei processi promuovendone la decostruzione. Si evidenzia quindi come la causa ambientalista fatichi a sussistere finché non diventa intersezionale allo sradicamento dei suddetti paradigmi. Si elabora un progetto interspecie nel quale l’architettura si volge a tutti gli esseri viventi, schierandosi apertamente contro coloro che, in nome del profitto, continuano a degradare i beni comuni. Non si tratta di un revival delle esperienze utopiche, ma una presa di coscienza che trasforma la speculazione in pragmatismo, attraverso la messa in discussione di pratiche consolidate all’interno di determinati contesti. Come caso applicativo si è scelto quello dell’ Ex cementificio Marchino, uno fra i tanti esempi di archeologia industriale presenti a Prato. Il complesso abbandonato da più di 60 anni, vede la presenza di fenomeni riappropriativi da parte dell’elemento naturale a tal punto da aver ricostituito al suo interno un personale equilibrio ecosistemico, trasfigurando la cementizia in opera-luogo adatto ad accogliere la biodiversità urbana. La scelta del sito è un atto apertamente provocatorio, in quanto questo - situato alle pendici della Calvana - è oggetto dell’ennesimo fenomeno di speculazione edilizia qualificato, ancora una volta, come intervento di riqualificazione urbana.
Resumo:
La tesi è stata finalizzata allo studio delle caratteristiche qualitative e tecnologiche delle carni di polli appartenenti alle principali categorie commerciali presenti in Italia: pollo leggero allevato all’aperto (PLA, 1,8-2 kg), medio convenzionale (PMC, 2,5-2,8 kg) e pesante convenzionale (PPC, 3,5-3,8 kg). Da un totale di 12 lotti di carne avicola, sono stati selezionati 50 muscoli Pectoralis major/lotto (n=600) e sono suddivisi in 3 gruppi sperimentali corrispondenti alle categorie commerciali. Sul totale dei campioni è stata valutata l’incidenza delle principali anomalie della carne avicola: 25 petti/lotto sono stati utilizzati per la misurazione del pH, colore, drip e cooking loss e sforzo di taglio, i restanti sono stati destinati alla valutazione dello stato ossidativo della carne. L’incidenza e la gravità delle miopatie White Striping e Wooden Breast è risultata nettamente inferiore in PLA, rispetto a PMC e PCC, mentre non è stata osservata alcuna differenza significativa nell’incidenza di petti affetti da Spaghetti Meat. Il gruppo PLA ha fatto registrare valori di pH significativamente inferiori rispetto alle altre categorie, senza riflessi negativi sui parametri tecnologici della carne. La capacità di ritenzione idrica è risultata infatti più elevata nel gruppo PLA, come comprovato dai valori inferiori di drip e cooking loss rispetto ai gruppi PMC e PPC. I campioni del gruppo PLA hanno presentato differenze significative per quanto riguarda il colore, con particolare riferimento all’intensità dell’indice di giallo (b*) risultata superiore (P<0,01) rispetto alle altre categorie commerciali. Al contrario, il gruppo PPC ha mostrato livelli inferiori di ossidazione proteica e lipidica. In virtù di quest’ultimo aspetto, le carni della categoria commerciale PPC potrebbero essere destinate alla preparazione di prodotti a base di carne, mentre quelle del PPM presentano caratteristiche più favorevoli per la produzione di sezionati e preparazioni di carne.
Resumo:
Le funzioni p-armoniche sono definite come soluzioni dell'equazione differenziale alle derivate parziali $\Delta_p u = 0$, dove $\Delta_p$ è l'operatore p-laplaciano. La classe delle funzioni p-armoniche si può estendere includendo funzioni derivabili in senso debole. Si dimostra che ogni funzione p-armonica è localmente hoelderiana, così come il suo gradiente. Infine, si caratterizzano le funzioni p-armoniche in termini della loro media integrale, mediante formule di media asintotiche.
Resumo:
Di fronte alla concorrenza globale, la sopravvivenza di un'azienda manifatturiera dipende sempre più da come essa può progettare, gestire e strutturare al meglio il proprio sistema di produzione per far fronte alla diversità dei prodotti, per migliorare l'affidabilità di consegna e anche per ridurre i costi. In questo contesto, le aziende manifatturiere utilizzano spesso sistemi di produzione diversi, in base a ciò che richiede il mercato. Molto in generale, i sistemi produttivi possono essere classificati in due categorie principali: make-to-stock (MTS) e make-to-order (MTO), in base alla politica di risposta alla domanda del mercato. Nel nuovo contesto competitivo le aziende si sono trovate a dover produrre costantemente prodotti specifici e di alta qualità con costi unitari bassi e livelli di servizio elevati (ossia, tempi di consegna brevi). È chiaro, dunque, che una delle principali decisioni strategiche da prendere da parte delle aziende sia quella relativa alla ripartizione dei prodotti in MTS/MTO, ovvero quale prodotto o famiglia di prodotti può essere fabbricato per essere stoccato a magazzino (MTS), quale può essere prodotto su ordinazione (MTO) e quale dovrebbe essere fabbricato in base alla politica di produzione ibrida MTS/MTO. Gli ultimi anni hanno mostrato una serie di cambiamenti nella politica di produzione delle aziende, che si stanno gradualmente spostando sempre più verso la modalità̀ di produzione ibrida MTS/MTO. In particolare, questo elaborato si concentrerà sul delayed product differentiation (DPD), una particolare strategia produttiva ibrida, e ne verrà proposto un modello decisionale basato sul funzionamento dell’Analytic Network Process (ANP) implementato attraverso il software Superdecisions.
Resumo:
A partire dal problema di orbit determination per una sonda in deep-space, la tesi si concentra su sviluppo e confronto di algoritmi di stima della frequenza di segnali analitici per la verifica delle loro performance di accuratezza nella generazione di osservabili doppler. Le tecniche poste a confronto appartengono a due categorie: due tempo-discrete ed una spettrale; in particolare si vuole valutare come la modellazione ARMA dei segnali possa beneficiare le prime al punto da poterle considerare alternative all'altezza degli standard del settore aerospaziale.
Resumo:
Il sistema terra è soggetto ad un aumento di temperatura causato in larga parte dall'intervento umano. Il riscaldamento nell'Artico avviene ad un velocità doppia rispetto a quella del resto del globo e induce lo scioglimento dei ghiacci polari oceanici e terrestri. Lo studio della variabilità meteorologica delle regioni polari e subpolari può aiutarci a comprendere il ruolo di eventi meteorologici estremi nel determinare forti variazioni di temperatura superficiale della calotta polare. Questo lavoro di tesi discute la fenomenologia degli eventi di blocco meteorologico, regime di circolazione anticiclonica persistente, nella troposfera delle alte latitudini ed il loro legame con estremi di temperatura superficiale nelle regioni artiche. Successivamente, una metodologia di analisi termodinamica per i suddetti è descritta ed applicata ad un caso studio descritto nella letteratura scientifica un blocco alle alte latitudini coincide con la propagazione di una perturbazione ciclonica dalle medie latitudini fino alla calotta artica. Questa particolare configurazione sinottica ha prodotto una variazione della temperatura della calotta artica di circa 7 K in 4 giorni. Sulla base dell’analisi termodinamica è possibile evidenziare una combinazione di processi fisici, diabatici e adiabatici, che concorrono nel determinare il repentino riscaldamento dell’Artico. L’applicazione di simili metodologie su ulteriori casi studio potrebbe contribuire alla definizione di un paradigma dinamico per il fenomeno delle ondate di calore artiche.
Resumo:
Studio della teoria dei processi di semi-Markov nella modellizzazione a tempo discreto. Introduzione delle catene di rinnovo di Markov, del nucleo di semi-Markov e delle catene di semi-Markov, risultati ad essi relativi. Analisi delle equazioni di rinnovo di Markov, caratterizzazione degli stati di una catena di semi-Markov, teorema di esistenza e unicità dell'equazione di rinnovo di Markov. Un esempio concreto.
Resumo:
L’olio di oliva è tra i prodotti alimentari principali della dieta mediterranea e possiede delle caratteristiche salutistiche, compositive e sensoriali peculiari. La qualità e la genuinità dell’olio di oliva vergine sono valutate sia mediante determinazioni analitiche chimiche e strumentali, sia attraverso l’analisi sensoriale. Quest’ultima, realizzata con il metodo del panel test, è tra i metodi ufficiali per la classificazione degli oli di oliva vergini nelle tre categorie commerciali extra vergine, vergine e lampante. Tuttavia, l’analisi sensoriale presenta dei limiti legati, in particolare, al numero elevato di campioni di olio da analizzare rispetto alle capacità di lavoro dei panel. Negli ultimi anni è aumentata, così, la necessità di sviluppare e validare metodi analitici strumentali che, pre-classificando gli oli in esame, siano di supporto al panel test e possano ridurre il numero di campioni da sottoporre ad analisi sensoriale. In questo elaborato di tesi sono state prese in considerazione due diverse tecniche analitiche, la gas cromatografica accoppiata alla spettrometria a mobilità ionica (HS-GC-IMS) e la flash gas cromatografia (FGC E-nose), entrambe impiegate per la valutazione della frazione volatile dell’olio di oliva, responsabile degli attributi olfattivi del prodotto. Utilizzando i risultati ottenuti applicando queste due tecniche, mediante analisi multivariata, è stato possibile stimare la categoria merceologica di ogni campione appartenente ad un set di 52 oli di oliva vergini, classificandoli con un determinato livello di probabilità. Entrambe le metodiche analitiche sono già state utilizzate e valutate in precedenti studi; con la sperimentazione effettuata nell’ambito di questa tesi è stato possibile confermare l’efficacia dei modelli di stima che possono essere impiegati con finalità di screening in supporto al panel test, nell’ottica di renderli sempre più robusti ed affidabili per la classificazione degli oli di oliva vergini.
Resumo:
Normalmente la meccanica quantistica non relativistica è ricavata a partire dal fatto che una particella al tempo t non può essere descritta da una posizione $x$ definita, ma piuttosto è descritta da una funzione, chiamata funzione d'onda, per cui vale l'equazione differenziale di Schr\"odinger, e il cui modulo quadro in $x$ viene interpretato come la probabilità di rilevare la particella in tale posizione. Quindi grazie all'equazione di Schr\"odinger si studia la dinamica della funzione d'onda, la sua evoluzione temporale. Seguendo quest'approccio bisogna quindi abbandonare il concetto classico di traiettoria di una particella, piuttosto quello che si studia è la "traiettoria" della funzione d'onda nei vari casi di campi di forze che agiscono sulla particella. In questa tesi si è invece scelto di studiare un approccio diverso, ma anch'esso efficace nel descrivere i fenomeni della meccanica quantistica non relativistica, formulato per la prima volta negli anni '50 del secolo scorso dal dott. Richard P. Feynman. Tale approccio consiste nel considerare una particella rilevata in posizione $x_a$ nell'istante $t_a$, e studiarne la probabilità che questa ha, nelle varie configurazioni dei campi di forze in azione, di giungere alla posizione $x_b$ ad un successivo istante $t_b$. Per farlo si associa ad ogni percorso che congiunge questi due punti spazio-temporali $a$ e $b$ una quantità chiamata ampiezza di probabilità del percorso, e si sviluppa una tecnica che permette di sommare le ampiezze relative a tutti gli infiniti cammini possibili che portano da $a$ a $b$, ovvero si integra su tutte le traiettorie $x(t)$, questo tipo di integrale viene chiamato integrale di cammino o più comunemente path integral. Il modulo quadro di tale quantità darà la probabilità che la particella rilevata in $a$ verrà poi rilevata in $b$.
Resumo:
La tesi è basata sul dimensionamento e l’analisi degli articoli che possono andare all’interno di un nuovo magazzino. Il progetto nasce dalla necessità di espandere il centro di stoccaggio attuale. Verranno costruiti un magazzino Autostore, una struttura più compatta ed efficiente nello stoccaggio della merce, ed un nuovo magazzino pallet servito da traslo elevatori. Dato che i materiali all’interno dell’Autostore devono essere stoccati all’interno di cassette più piccole rispetto ad un pallet, è stato necessario stimare il numero di articoli idonei a questo tipo di stoccaggio sia dal punto di vista del peso che dal punto di vista volumetrico, dato che di solo un 30% dei codici si è a conoscenza delle dimensioni. L’analisi si è sviluppata tramite stime in base a quanti codici siano presenti all’interno dei pallet e la loro quantità al suo interno. Da questa stima si sono ricavate tre categorie, verde, arancione e rossa che identificano se i materiali risultano idonei oppure no. I primi sono quelli che possono andare all’interno dell’Autostore, i secondi risultano essere border line, mentre i terzi non possono andare all’interno sicuramente. Degli articoli in esame sono state estratte anche le giacenze medie nei 3 anni passati, in modo tale da dimensionare adeguatamente i magazzini, le entrate merci, così da vedere quante baie di carico sono necessarie e le varie tipologie di movimento legate ai prelievi e le tempistiche di prelievo per ogni baia di scarico, in modo tale da valutare le minime prestazioni che il nuovo magazzino deve soddisfare. Sono stati calcolati anche dei flussi di materiale, uscente ed entrante dall’azienda, in modo tale da individuare la posizione ottimale del nuovo centro di stoccaggio. Infine sono state dimensionate e costificate le due soluzioni: quella Autostore che può ospitare tutti gli articoli della categoria verde, di cui sono stati sviluppati due scenari, mentre quella del magazzino automatico pallet che contiene le altre due categorie.
Resumo:
In questo elaborato si illustra una delle principali proprietà godute dalle funzioni armoniche: la disuguaglianza di Harnack, dal nome del matematico che la dimostrò nel 1887. Nella sua formulazione più semplice, essa afferma che se una funzione armonica è non negativa, allora l'estremo superiore di tale funzione su una palla euclidea è controllato dall'alto dall'estremo inferiore della funzione sulla stessa palla, a meno di una costante moltiplicativa dipendente solo dalla dimensione. Una simile disuguaglianza è soddisfatta anche da soluzioni di equazioni alle derivate parziali più generali dell'equazione di Laplace. Ad esempio, J. Moser nel 1961 dimostra che le soluzioni deboli di equazioni differenziali ellittiche lineari soddisfano una disuguaglianza di tipo Harnack. Tale risultato è argomento dell'ultimo capitolo di questo elaborato.
Resumo:
Il sistema logistico rappresenta una variabile fondamentale nel contesto organizzativo: se efficiente e ben strutturato può rivelarsi un vantaggio competitivo per le organizzazioni. Nel presente elaborato viene posta l’attenzione proprio su un particolare ambito del sistema logistico, ossia quello della logistica interna. L’obiettivo di questa tesi, svolta a margine di un tirocinio in Marchesini Group, azienda del bolognese leader nella fornitura di sistemi automatici per il packaging farmaceutico e cosmetico, è stato quello di ottimizzare i processi di gestione delle scorte e di picking di due categorie specifiche di prodotti: gli utensili, gestiti dal reparto attrezzeria ed i DPI, gestiti dal reparto sicurezza. Dopo una fase iniziale di osservazione diretta sul campo, finalizzata rilevare le principali criticità dei processi, lo studio si è concentrato sull'identificazione degli articoli principalmente consumati dai reparti e sulla definizione del loro consumo medio. In funzione delle esigenze dei diversi settori coinvolti, sono state, per entrambi i reparti, avanzate delle proposte di soluzione che riguardano sia l'introduzione di un nuovo modello di gestione delle scorte, accompagnato da un nuovo sistema di monitoraggio delle giacenze, che la riorganizzazione del flusso informativo relativo alla gestione degli ordini. Oltre che sul flusso informativo, il focus è stato posto anche sul flusso fisico degli articoli, con l’obiettivo di eliminare gli sprechi legati alle movimentazioni degli operatori tra i reparti. A tale scopo, dopo aver analizzato l'attuale processo di picking, è stata avanzata una proposta di soluzione che prevede l'introduzione di alcuni punti di prelievo direttamente all’interno dei reparti produttivi, appositamente collocati e dimensionati per minimizzare gli spostamenti degli operatori. Nella parte finale dell’elaborato vengono trattate le soluzioni proposte dal punto di vista economico e ne vengono illustrati i possibili sviluppi futuri.
Resumo:
L’elaborato di tesi è frutto di un percorso di tirocinio svolto in Gruppo Montenegro S.r.l., il cui obiettivo risiede nello sviluppo di un algoritmo per la pallettizzazione e la saturazione del mezzo di trasporto per la Divisione Food. Nello specifico viene proposto un algoritmo euristico elaborato nel linguaggio di programmazione Python. La divisione Food è costituita da tre categorie: Cannamela, Cuore e Vitalia.Queste comprendono prodotti molto eterogenei. Attraverso il coinvolgimento delle funzioni aziendali di Packaging e Qualità, sono stati stabiliti i vincoli da rispettare per la pallettizzazione dei prodotti. L’algoritmo proposto viene descritto suddividendo il processo in tre macro-step. La prima parte affronta il problema del 3D Bin Packing Problem, utilizzando e modificando un programma già presente in letteratura per soddisfare le esigenze della categoria Cannamela. Quest’ultima a differenza delle altre categorie, viene allestita in groupage preallestito poiché gli ordini Cannamela possono contenere quantità non-multiple rispetto alle quantità contenute nell’imballo secondario. La seconda parte dell’algoritmo si occupa della creazione dei pallet per le categorie Cuore e Vitalia. Attraverso l’utilizzo dell’algoritmo di clustering K-means sono state create famiglie di codici che permettessero l’allestimento di pallet con prodotti considerati simili. Di conseguenza, l’algoritmo per la pallettizzazione delle due categorie viene sviluppato ex-novo basandosi sulla percentuale di occupazione del prodotto nel pallet. L’ultima parte dell’algoritmo studia la possibilità di sovrapporre i pallet precedentemente creati. Infine, viene effettuata un’analisi di un periodo strategico confrontando i risultatidell’algoritmo Python con quelli dell’algoritmo presente nel gestionale aziendale. I risultati vengono poi analizzati in relazione a due impatti importanti per l’azienda:economici e ambientali.