953 resultados para morfismi étale schemi varietà
Resumo:
La presente tesi è il frutto di un lavoro di ricerca sugli aspetti che rendono gli algoritmi esatti per CVRP presenti in letteratura poco efficienti su certi tipi di istanze. L'ipotesi iniziale era che gli algoritmi incontrassero difficoltà di risoluzione su istanze di CVRP dotate di un numero limitato di soluzioni di Bin Packing. Allo scopo di verificare la validità di tale supposizione, sono state create istanze di Bin Packing aventi poche soluzioni ottime e sono stati aggiunti tre differenti schemi di routing. Le istanze CVRP sono state risolte con l'algoritmo del dr. Roberti, già presente in letteratura.
Resumo:
Negli ultimi 50 anni il mercato alimentare è stato caratterizzato da profondi cambiamenti influenzati soprattutto da evoluzioni sociali e da notevoli mutamenti delle abitudini alimentari (Riquelme et al., 1994). La costante diffusione dei grandi supermarket ed il recente interesse verso la salute e l’ambiente, nonché la modifica dello stile di vita da parte del consumatore, hanno portato le industrie alimentari a sviluppare nuovi metodi di conservazione e di distribuzione e tipologie di prodotti innovative, come i prodotti ortofrutticoli minimamente trasformati. La perdita di qualità dei prodotti ortofrutticoli minimamente trasformati è il risultato di complessi meccanismi chimici e biochimici che si traducono macroscopicamente in modificazioni a carico del colore, delle texture e delle caratteristiche organolettiche (Mencarelli & Massantini, 1994). A fronte dei suddetti fenomeni degradativi, in un contesto di incrementale aumento della domanda dei prodotti freschi, sani, ad elevata convenience e senza additivi chimici (Day, 2002) l’introduzione delle atmosfere protettive per la conservazione degli alimenti è risultata strategica per prolungare la shelf-life ed il mantenimento qualitativo dei prodotti freschi (Jeyas & Jeyamkondan, 2002). Le attuali tecnologie disponibili per le industrie alimentari permettono l’applicazione di condizioni di atmosfera modificata sia in fase di stoccaggio di prodotti ortofrutticoli sia in fase di condizionamento. Il primo obiettivo è generalmente la parziale rimozione dell’O2 e l’aumento dei livelli di CO2 nell’ambiente circostante il prodotto. Oltre ai gas usati tradizionalmente per la realizzazione delle atmosfere modificate, quali N2 e CO2, recentemente è aumentato l’interesse verso i potenziali effetti benefici di nuovi gas, quali argon (Ar) e protossido d’azoto (N2O). Questi ultimi, ora permessi in Europa per uso alimentare, sono risultati efficaci nell’inibizione della crescita microbica e delle reazioni enzimatiche degradative, a carico soprattutto del colore e della consistenza dei vegetali minimamente processati (Spencer, 1995; Kader et al., 1989; Watada et al., 1996). Premesso questo, in tale lavoro di tesi è stata effettuata una ricerca sugli effetti di N2, N2O e Ar e di differenti trattamenti ad immersione, noti come dipping (con acido ascorbico, acido citrico e cloruro di calcio), sul metabolismo di prodotti ortofrutticoli. In particolare, per ciò che concerne la parte sperimentale, gli obiettivi principali sono stati quelli di approfondire le potenzialità di tali gas e dipping nel mantenimento qualitativo (colore, consistenza, metabolismo respiratorio) e di verificare l’efficacia di interventi combinati di dipping e MAP (atmosfera modificata) nel prolungamento della shelf-life del prodotto. Questa sperimentazione è stata effettuata su due varietà di lattuga: una da cespo (Iceberg) e una da taglio (Lattughino).
Resumo:
In questa tesi vengono introdotte le idee chiave della moderna crittografia, presentato il cifrario perfetto one-time pad e mostrate le criticità che l’utilizzo di tale schema presenta. L’idea di schemi di cifratura matematicamente sicuri deve essere superata a favore di schemi computazionalmente sicuri. A questo proposito diventa cruciale il concetto di pseudocasualità: come la sicurezza computazionale è un indebolimento della sicurezza perfetta, così la pseudocasualità è un indebolimento della pura casualità. E' quindi necessario avere dei metodi per definire la bontà di un generatore pseudocasuale di numeri. Il National Institute of Standars and Technology fornisce alcuni criteri per caratterizzare e scegliere generatori appropriati sulla base di test statistici. Alcuni di questi test sono stati implementati all’interno del portale di apprendimento CrypTool sviluppato da alcune Università e centri di ricerca di Germania e Austria.
Resumo:
La ricerca si propone di inquisire il modo in cui il fantastico del primo Novecento utilizza la rappresentazione finzionale degli oggetti ai fini della propria emersione. Si ipotizza che certi schemi rappresentativi elaborati da autori fantastici come Hoffmann, Poe o Maupassant siano riscontrabili anche nella letteratura del XX secolo, e vengano reimpiegati per rispondere a una mutata situazione socioculturale. La tesi è bipartita: la prima parte, che è a sua volta suddivisa in due capitoli, funziona da cornice teorica e storica alle analisi testuali. Vi si discute del concetto di immagine; e da tale discussione viene derivata una precisa idea di spazio e di oggetto letterari. In seguito si procede a una ricostruzione della storia del fantastico ottocentesco (dalla quale non sono assenti riflessioni teoriche e in particolare genologiche), che da un lato è volta a storicizzare l’idea di “genere fantastico”; dall’altro ha come obiettivo l’identificazione di una tipologia di oggetti strutturalmente legata a quel genere narrativo. Due sono le classi di oggetti così individuate, e altrettanti i capitoli che compongono la seconda parte del lavoro. Entrambi i tipi di oggetto, che per semplicità si possono chiamare oggetti-feticcio e oggetti spettrali, stanno a metà strada tra immaginario e reale; ma mentre l’oggetto-feticcio ha qualcosa in più rispetto a un oggetto descritto realisticamente, l’oggetto spettrale ha un che di deficitario, e non giunge al risultato di una completa materializzazione. Tra gli autori affrontati compaiono Papini, Pirandello, Bontempelli, Savinio, Landolfi; né mancano riferimenti ad autori di altre nazioni da Kafka a Sartre, da James a Virginia Woolf, in ottemperanza all’idea di considerare il fantastico italiano all’interno di una più ampia geografia letteraria.
Resumo:
Una 3-varietà si dice virtualmente fibrata se ammette un rivestimento finito che è un fibrato con base una circonferenza e fibra una superficie. In seguito al lavoro di geometrizzazione di Thurston e Perelman, la generica 3-varietà risulta essere iperbolica; un recente risultato di Agol afferma che una tale varietà è sempre virtualmente fibrata. L’ingrediente principale della prova consiste nell’introduzione, dovuta a Wise, dei complessi cubici nello studio delle 3-varietà iperboliche. Questa tesi si concentra sulle proprietà algebriche e geometriche di queste strutture combinatorie e sul ruolo che esse hanno giocato nella dimostrazione del Teorema di Fibrazione Virtuale.
Resumo:
Le ragioni della delocalizzazione sono molteplici e di differente natura. Si delocalizza, in primo luogo, per ragioni di stampo economico, finanziario eccetera, ma questa spinta naturale alla delocalizzazione è controbilanciata, sul piano strettamente tributario, dall’esigenza di preservare il gettito e da quella di controllare la genuinità della delocalizzazione medesima. E’ dunque sul rapporto tra “spinte delocalizzative” dell’impresa, da un lato, ed esigenze “conservative” del gettito pubblico, dall’altro, che si intende incentrare il presente lavoro. Ciò alla luce del fatto che gli strumenti messi in campo dallo Stato al fine di contrastare la delocalizzazione (più o meno) artificiosa delle attività economiche devono fare i conti con i principi comunitari introdotti con il Trattato di Roma e tratteggiati negli anni dalla giurisprudenza della Corte di Giustizia. In quest’ottica, la disciplina delle CFC costituisce un ottimo punto di partenza per guardare ai fenomeni di produzione transnazionale della ricchezza e agli schemi di ordine normativo preposti alla tassazione di codesta ricchezza. Ed infatti, le norme sulle CFC non fanno altro che omogeneizzare un sistema che, altrimenti, sarebbe lasciato alla libera iniziativa degli uffici fiscali. Tale “normalizzazione”, peraltro, giustifica le esigenze di apertura che sono incanalate nella disciplina degli interpelli disapplicativi. Con specifico riferimento alla normativa CFC, assumono particolare rilievo la libertà di stabilimento ed il principio di proporzionalità anche nella prospettiva del divieto di abuso del diritto. L’analisi dunque verterà sulla normativa CFC italiana con l’intento di comprendere se codesta normativa, nelle sue diverse sfaccettature, possa determinare situazioni di contrasto con i principi comunitari. Ciò anche alla luce delle recenti modifiche introdotte dal legislatore con il d.l. 78/2009 in un quadro normativo sempre più orientato a combattere le delocalizzazioni meramente fittizie.
Resumo:
La presente ricerca, L’architettura religiosa di Luis Moya Blanco. La costruzione come principio compositivo, tratta i temi inerenti l’edificazione di spazi per il culto della religione cristiana che l’architetto spagnolo progetta e realizza a Madrid dal 1945 al 1970. La tesi è volta ad indagare quali siano i principi alla base della composizione architettonica che si possano considerare immutati, nel lungo arco temporale in cui l’autore si trova ad operare. Tale indagine, partendo da una prima analisi riguardante gli anni della formazione e gli scritti da lui prodotti, verte in particolare sullo studio dei progetti più recenti e ancora poco trattati dalla critica. L’obbiettivo della presente tesi è dunque quello di apportare un contributo originale sull’aspetto compositivo della sua architettura. Ma analizzare la composizione significa, in Moya, analizzare la costruzione che, a dispetto del susseguirsi dei linguaggi, rimarrà l’aspetto principale delle sue opere. Lo studio dei manufatti mediante categorie estrapolate dai suoi stessi scritti – la matematica, il numero, la geometria e i tracciati regolatori - permette di evidenziare punti di contatto e di continuità tra le prime chiese, fortemente caratterizzate da un impianto barocco, e gli ultimi progetti che sembrano cercare invece un confronto con forme decisamente moderne. Queste riflessioni, parallelamente contestualizzate nell’ambito della sua consistente produzione saggistica, andranno a confluire nell’idea finale per cui la costruzione diventi per Luis Moya Blanco il principio compositivo da cui non si può prescindere, la regola che sostanzia nella materia il numero e la geometria. Se la costruzione è dunque la pietrificazione di leggi geometrico-matematiche che sottendono schemi planimetrici; il ricorso allo spazio di origine centrale non risponde all’intenzione di migliorare la liturgia, ma a questioni di tipo filosofico-idealista, che fanno corrispondere alla somma naturalezza della perfezione divina, la somma perfezione della forma circolare o di uno dei suoi derivati come l’ellisse.
Resumo:
Questo lavoro costituisce un'interfaccia tra la fisica dei materiali e la biologia; sfruttando le particolari proprietà del polimero conduttore poli(3,4-etilenediossitiofene) drogato con poli(stirene sulfonato) (PSS), o PEDOT:PSS, sono stati sviluppati e realizzati substrati per colture cellulari. Tale composto è infatti un polimero organico biocompatibile, caratterizzato da proprietà fisiche che ben si prestano ad applicazioni in campo biologico. Vengono inizialmente descritte le caratteristiche generali e gli schemi di classificazione dei polimeri, per analizzare quindi in dettaglio i polimeri conduttori e la loro modalità di drogaggio. Si presenta quindi il PEDOT:PSS, del quale vengono descritte le proprietà, in particolare ci si sofferma sulle quelle termiche, meccaniche ed elettriche. Il primo capitolo si conclude con la presentazione delle applicazioni bioelettroniche del PEDOT:PSS, illustrando le principali applicazioni nella ricerca biologica e descrivendo le caratteristiche che ne hanno fatto uno dei composti più utilizzati per questo tipo di applicazioni. Nel secondo capitolo, per la parte sperimentale, sono stati descritti approfonditamente gli strumenti e i materiali utilizzati; in particolare vengono spiegati dettagliatamente il procedimento di spin-coating per la produzione di film sottili e le tecniche AFM (Atomic Force Microscopy) per l'analisi della morfologia superficiale. Nel terzo capitolo vengono esposte le tecniche sperimentali impiegate: è stata sviluppata una procedura di produzione ripetibile, grazie alla quale sono stati realizzati dei campioni, per i quali poi è stata misurata la rugosità. I risultati conseguiti sono stati infine correlati con l'analisi della proliferazione cellulare, illustrata chiaramente dalle immagini ottenute al microscopio ottico, che rivelano l'adesione e la moltiplicazione cellulare sui substrati di PEDOT:PSS.
Resumo:
Resumo:
La ricerca ha per oggetto il progetto del Foro Bonaparte a Milano redatto da Giovanni Antonio Antolini a seguito del decreto del 23 giugno 1800 che stabiliva l’abbattimento delle mura del Castello Sforzesco. Si affronta il tema dell’architettura avendo come obiettivo una lettura critica di tale progetto servendosi dell’analisi compositiva come strumento in grado di stabilire i rapporti che intercorrono tra la città, l’architettura e il tipo. Attraverso lo studio del progetto urbano la ricerca conferma l’ipotesi per la quale la grande forma totalizzante, perentoria e assoluta è capace di mutare la struttura urbana, offrendo un nuovo modello con cui rinnovare la città. L’ambizione di Antolini di veder realizzata l’opera è destinata a svanire nell’arco di pochi anni, ma il progetto per il Foro Bonaparte continuerà per lungo tempo ad evocare la sua idea innovativa fino ai giorni nostri. Sebbene l’opera sia destinata a rimanere un’architettura solo disegnata, le varie pubblicazioni continuano a circolare nelle accademie prima e nelle università successivamente, costituendo un importante patrimonio di studio e di ricerca per generazioni di architetti, fino alla riscoperta avvenuta con Aldo Rossi e Manfredo Tafuri negli anni sessanta del secolo scorso. Dalle lezioni formulate nelle architetture del passato è possibile avanzare nuove ipotesi e alimentare riflessioni e dibattiti sul ruolo dell’architettura nella città contemporanea. La ricerca si occupa del progetto d’architettura per offrire un ulteriore contributo al tema, attraverso una lettura di carattere compositivo, supportata da una serie di schemi e disegni di studio necessari per completare il testo e per verificare i concetti esposti. Dopo aver raccolto, catalogato ed analizzato il materiale iconografico relativo al progetto per il Foro Bonaparte si è scelto di basare il ridisegno sulla raccolta di disegni conservati presso la Biblioteca Nazionale di Francia.
Resumo:
L’obiettivo di questa tesi è stato quello di migliorare l’efficacia e l’efficienza di una proposta allo stato dell’arte per l’individuazione di punti salienti in immagini digitali [1]. Questo algoritmo sfrutta le proprietà dell’equazione alle derivate parziali che modella l’evoluzione di un’onda. Per migliorarlo sono stati implementati alcuni schemi numerici di risoluzione dell’equazione delle onde bidimensionale e sono stati valutati rispetto allo schema già utilizzato. Sono stati implementati sia schemi impliciti sia schemi espliciti, tutti in due versioni: con interlacciamento con l’equazione del calore (diffusivi) e senza. Lo studio dei migliori schemi è stato approfondito e questi ultimi sono stati confrontati con successo con la versione precedentemente proposta dello schema esplicito INT 1/4 con diffusione [1]. In seguito è stata realizzata una versione computazionalmente più efficiente dei migliori schemi di risoluzione attraverso l’uso di una struttura piramidale ottenuta per sotto-campionamento dell’immagine. Questa versione riduce i tempi di calcolo con limitati cali di performance. Il tuning dei parametri caratteristici del detector è stato effettuato utilizzando un set di immagini varianti per scala, sfocamento (blur), punto di vista, compressione jpeg e variazione di luminosità noto come Oxford dataset. Sullo stesso sono stati ricavati risultati sperimentali che identificano la proposta presentata come il nuovo stato dell’arte. Per confrontare le performance di detection con altri detector allo stato dell’arte sono stati utilizzati tre ulteriori dataset che prendono il nome di Untextured dataset, Symbench dataset e Robot dataset. Questi ultimi contengono variazioni di illuminazione, momento di cattura, scala e punto di vista. I detector sviluppati risultano i migliori sull’Untextured dataset, raggiungono performance simili al miglior detector disponibile sul Symbench dataset e rappresentano il nuovo stato dell’arte sul Robot dataset.