288 resultados para costante di Eulero-Mascheroni ipotesi di Riemann zeta di Riemann
Resumo:
L’obiettivo dello studio è quello di determinare le cause della rottura a fatica in un accoppiamento albero–mozzo. Nella prima parte si cerca di costruire un modello FEM (attraverso Ansys Workbench 12.0) che simuli il comportamento del provino albero-mozzo sottoposto a una flessione alterna, come nella macchina di Moore. Con esso si cercherà di individuare le variabili del problema e quali potranno influenzare la σy_max e il Kt. Nella seconda parte si cercherà di stabilire se il fretting sia funzione dalle stesse variabili del Kt, se esiste una transizione tra i due fenomeni e la quantità di usura prodotta dal fretting. Infine si realizzeranno delle prove sperimentali per verificare le ipotesi dedotte dall'analisi FEM.
Resumo:
Negli ultimi 50 anni il mercato alimentare è stato caratterizzato da profondi cambiamenti influenzati soprattutto da evoluzioni sociali e da notevoli mutamenti delle abitudini alimentari (Riquelme et al., 1994). La costante diffusione dei grandi supermarket ed il recente interesse verso la salute e l’ambiente, nonché la modifica dello stile di vita da parte del consumatore, hanno portato le industrie alimentari a sviluppare nuovi metodi di conservazione e di distribuzione e tipologie di prodotti innovative, come i prodotti ortofrutticoli minimamente trasformati. La perdita di qualità dei prodotti ortofrutticoli minimamente trasformati è il risultato di complessi meccanismi chimici e biochimici che si traducono macroscopicamente in modificazioni a carico del colore, delle texture e delle caratteristiche organolettiche (Mencarelli & Massantini, 1994). A fronte dei suddetti fenomeni degradativi, in un contesto di incrementale aumento della domanda dei prodotti freschi, sani, ad elevata convenience e senza additivi chimici (Day, 2002) l’introduzione delle atmosfere protettive per la conservazione degli alimenti è risultata strategica per prolungare la shelf-life ed il mantenimento qualitativo dei prodotti freschi (Jeyas & Jeyamkondan, 2002). Le attuali tecnologie disponibili per le industrie alimentari permettono l’applicazione di condizioni di atmosfera modificata sia in fase di stoccaggio di prodotti ortofrutticoli sia in fase di condizionamento. Il primo obiettivo è generalmente la parziale rimozione dell’O2 e l’aumento dei livelli di CO2 nell’ambiente circostante il prodotto. Oltre ai gas usati tradizionalmente per la realizzazione delle atmosfere modificate, quali N2 e CO2, recentemente è aumentato l’interesse verso i potenziali effetti benefici di nuovi gas, quali argon (Ar) e protossido d’azoto (N2O). Questi ultimi, ora permessi in Europa per uso alimentare, sono risultati efficaci nell’inibizione della crescita microbica e delle reazioni enzimatiche degradative, a carico soprattutto del colore e della consistenza dei vegetali minimamente processati (Spencer, 1995; Kader et al., 1989; Watada et al., 1996). Premesso questo, in tale lavoro di tesi è stata effettuata una ricerca sugli effetti di N2, N2O e Ar e di differenti trattamenti ad immersione, noti come dipping (con acido ascorbico, acido citrico e cloruro di calcio), sul metabolismo di prodotti ortofrutticoli. In particolare, per ciò che concerne la parte sperimentale, gli obiettivi principali sono stati quelli di approfondire le potenzialità di tali gas e dipping nel mantenimento qualitativo (colore, consistenza, metabolismo respiratorio) e di verificare l’efficacia di interventi combinati di dipping e MAP (atmosfera modificata) nel prolungamento della shelf-life del prodotto. Questa sperimentazione è stata effettuata su due varietà di lattuga: una da cespo (Iceberg) e una da taglio (Lattughino).
Resumo:
Il bacino ligure, pur facendo parte della più grande area marina protetta del Mar Mediterraneo, il Santuario Pelagos, risulta essere una regione in cui le attività umane stanno condizionando la presenza di numerose specie di Cetacei. Fra tutte Tursiops truncatus, in virtù della sua distribuzione limitata per lo più alle acque basse (<200 metri) è la specie maggiormente soggetta alle conseguenze dirette e indirette dell’impatto antropico. Questo elaborato è stato condotto all’interno del più ampio progetto “Delfini Metropolitani” coordinato dall’Acquario di Genova. L’area di studio presa in esame è l’intero levante ligure con tre stazioni di ormeggio: Genova, Rapallo e Lerici. Tramite la tecnica della cattura-ricattura fotografica è stato possibile analizzare la distribuzione ed effettuare delle stime di abbondanza per il periodo di studio 2005 – 2012. Dai risultati e dal confronto con altri studi è emerso che il tursiope vive entro la piattaforma continentale e sembrerebbe che all’aumentare di quest’ultima aumenti la dimensione della popolazione. Per il periodo di studio considerato la popolazione non fa registrare trend demografici significativi, rimanendo costante fra 150 - 250 individui. In questo elaborato si sono anche studiate le differenze fra maschi e femmine nell’evoluzione dei marcaggi naturali. I risultati preliminari hanno mostrato una differenza significativa fra i due sessi. Il maschio ha un valore maggiore come cambiamento rispetto alle femmine, questo è dovuto al fatto che gli individui maschi hanno interazioni spesso aggressive per poter accedere alle femmine. Infine grazie all’analisi dell’evoluzione dei marcaggi naturali e delle differenze trovate, si è proposto un nuovo metodo per poter sessare gli animali. Questo qui proposto, comunque, è un metodo derivante da uno studio preliminare e si ha bisogno di successivi studi per testarne l’efficienza e l’affidabilità.
Resumo:
Studio di alcuni dispositivi presenti nelle vetture di formula 1, ma anche in quelle di serie più comuni, per l’ancoraggio e per l’isolamento delle vibrazioni fra componentistiche elettriche e telaio del veicolo. Questi dispositivi, noti come antivibranti (AV), svolgono un ruolo essenziale nel cercare di preservare i dispositivi elettrici: centraline, scatole cablate e connessioni elettriche. Il diffondersi di strumentazione adeguata a costi non più proibitivi ha permesso di studiare più in dettaglio e più scientificamente il comportamento degli AV per sfruttarli al meglio. Obiettivo di questo studio è dare una caratterizzazione scientifica e rigorosa alla maggior parte degli antivibranti presenti in STR7 monoposto Toro Rosso (mondiale di F1 2012), buona parte dei quali verrà utilizzata anche nelle successive vetture. Si volevano, inoltre, sviluppare alcuni modelli che potessero simulare correttamente montaggi di centraline generiche con tutte le diverse tipologie di antivibranti, in modo tale da poter vedere, prima ancora di realizzarli, come si comportavano i sistemi in quelle condizioni e dunque poter apportare modifiche al progetto tali da ottenere la configurazione di montaggio migliore. La continua ricerca di miglioramenti prestazionali che una competizione motoristica ad altissimi livelli richiede, il costante bisogno di alleggerimenti e maggiore affidabilità spingono la ricerca e l'azienda voleva passare da una progettazione basata sulla ripetizione delle configurazioni dimostratesi affidabili nel passato ad una progettazione più tecnica, scientifica e prestazionale. Per una buona caratterizzazione delle proprietà degli antivibranti sono stati progettati specifici test da eseguire al banco vibrante con i quali, lavorando nel dominio delle frequenze, si sono sfruttate le funzioni di risposte in frequenze di ogni antivibrante per ricavare i parametri caratteristici degli stessi nelle varie configurazioni. Con strategie grafiche, numeriche e teoriche si sono ricavati, con buone precisioni, i valori dei coefficienti di smorzamento e di rigidezza che caratterizzano i componenti studiati. Per l’esecuzione di questi test sono stati utilizati tutti gli strumenti messi a disposizione da Scuderia Toro Rosso nel laboratorio per prove vibrazionali recentemente approntato. Per la parte di simulazione numerica invece sono stati sfruttati i risultati ottenuti nella caratterizzazione degli antivibranti per creare programmi in ambiente Matlab che possano simulare il comportamento di generiche centraline montate in generici modi. Risultati di questo studio saranno gli andamenti dei coefficienti di rigidezza e smorzamento dei vari antivibranti nelle diverse configurazioni; inoltre si renderanno disponibili ai progettisti istruzioni e semplici programmi per la valutazione delle scelte fatte al fine di minimizzare le vibrazioni dei dispositivi.
Resumo:
“Dì che ti piace questa pagina”. Questo è uno dei tanti inviti rivolti a chi, ogni giorno, naviga in Internet. Che si stia leggendo un articolo sul sito de La Repubblica, o visitando il blog di un personaggio famoso o di un politico, i riferimenti ai social network sono ormai una presenza costante nelle pagine web. La facilità di restare in contatto con i propri amici, e la possibilità di collegarsi in qualsiasi momento, hanno portato gli utenti del Web 2.0 ad intensificare le discussioni, ed a commentare gli argomenti ed i contenuti prodotti dagli altri in un continuo e complesso “botta e risposta”. È possibile che quest'ambiente abbia favorito lo sviluppo di una nuova prospettiva della Rete, inteso come un nuovo modo di vedersi e di rapportarsi con gli altri, di esprimersi e di condividere le proprie storie e la propria storia. Per approfondire queste tematiche si è deciso di osservare alcuni dei social networks più diffusi, tra i quali Twitter e Facebook e, per raccogliere i dati più significativi di quest'ultimo, di sviluppare un'apposita applicazione software. Questa tesi tratterà gli aspetti teorici che hanno portato questa ricerca su scala nazionale e l'analisi dei requisiti del progetto; approfondirà le dinamiche progettuali e lo sviluppo dell'applicazione entro i vincoli imposti da Facebook, integrando un questionario per l'utente alla lettura dei dati. Dopo la descrizione delle fasi di testing e deployment, l'elaborato includerà un'analisi preliminare dei dati ottenuti per mezzo di una pre-elaborazione all'interno dell'applicazione stessa.
Resumo:
La fascia costiera ravennate è soggetta ad un precario equilibrio ambientale dovuto alla morfodinamica naturale molto attiva e tipica di tali ambienti, quali: sedimentazione, erosione, subsidenza e salinizzazione. A queste, in tempi diversi, sono venuti ad associarsi altri processi, indotti dall’attività antropica, che hanno portato alla scomparsa di gran parte dei caratteri paesaggistico-ambientali originari: le dune sono state in parte spianate, le paludi bonificate, le superfici boschive fortemente ridotte e le spiagge in buona parte occupate da stabilimenti per il turismo balneare. Nel presente studio è stata effettuata una valutazione territoriale del rischio di salinizzazione nei suoli della piana agricola costiera presenti nella zona sud ravennate. Partendo dall’individuazione dell’area di studio è stata effettuata una caratterizzazione pedologica delle tipologie di suolo presenti e una valutazione di tipo chimico-fisiche per verificare l’effettivo livello di manifestazione del problema della salinizzazione. Dalle analisi effettuate si sono riscontrati valori di CE elevati nei profili prossimi alla costa determinati dalla presenza degli ioni sodio e cloruro, mentre i terreni più interni posti in zona depressa non presentano fenomeni di salinizzazione degni di nota, ad accezione di alcune situazioni localizzate e fortunatamente solo in profondità. Le analisi delle acque di falda della Pineta Ramazzotti invece, hanno evidenziato valori di CE elevati ( >2 dS.m-1 ) che porta a classificarle come acque di falda lievemente - sensibilmente contaminate da parte dell’acqua di mare, risultando quindi una zona in cui il fenomeno della salinizzazione risulta significativo. Concludendo si può affermare che tale ambiente fragile e sensibile deve essere oggetto di un costante monitoraggio, ponendo l’attenzione su modificazioni ambientali, o politiche di gestione territoriale che possono indurre effetti assai gravi.
Resumo:
Il Web nel corso della sua esistenza ha subito un mutamento dovuto in parte dalle richieste del mercato, ma soprattutto dall’evoluzione e la nascita costante delle numerose tecnologie coinvolte in esso. Si è passati da un’iniziale semplice diffusione di contenuti statici, ad una successiva collezione di siti web, dapprima con limitate presenze di dinamicità e interattività (a causa dei limiti tecnologici), ma successivamente poi evoluti alle attuali applicazioni web moderne che hanno colmato il gap con le applicazioni desktop, sia a livello tecnologico, che a livello di diffusione effettiva sul mercato. Tali applicazioni web moderne possono presentare un grado di complessità paragonabile in tutto e per tutto ai sistemi software desktop tradizionali; le tecnologie web hanno subito nel tempo un evoluzione legata ai cambiamenti del web stesso e tra le tecnologie più diffuse troviamo JavaScript, un linguaggio di scripting nato per dare dinamicità ai siti web che si ritrova tutt’ora ad essere utilizzato come linguaggio di programmazione di applicazioni altamente strutturate. Nel corso degli anni la comunità di sviluppo che ruota intorno a JavaScript ha prodotto numerose librerie al supporto del linguaggio dotando così gli sviluppatori di un linguaggio completo in grado di far realizzare applicazioni web avanzate. Le recenti evoluzioni dei motori javascript presenti nei browser hanno inoltre incrementato le prestazioni del linguaggio consacrandone la sua leadership nei confronti dei linguaggi concorrenti. Negli ultimi anni a causa della crescita della complessità delle applicazioni web, javascript è stato messo molto in discussione in quanto come linguaggio non offre le classiche astrazioni consolidate nel tempo per la programmazione altamente strutturata; per questo motivo sono nati linguaggi orientati alla programmazione ad oggetti per il web che si pongono come obiettivo la risoluzione di questo problema: tra questi si trovano linguaggi che hanno l’ambizione di soppiantare JavaScript come ad esempio Dart creato da Google, oppure altri che invece sfruttano JavaScript come linguaggio base al quale aggiungono le caratteristiche mancanti e, mediante il processo di compilazione, producono codice JavaScript puro compatibile con i motori JavaScript presenti nei browser. JavaScript storicamente fu introdotto come linguaggio sia per la programmazione client-side, che per la controparte server-side, ma per vari motivi (la forte concorrenza, basse performance, etc.) ebbe successo solo come linguaggio per la programmazione client; le recenti evoluzioni del linguaggio lo hanno però riportato in auge anche per la programmazione server-side, soprattutto per i miglioramenti delle performance, ma anche per la sua naturale predisposizione per la programmazione event-driven, paradigma alternativo al multi-threading per la programmazione concorrente. Un’applicazione web di elevata complessità al giorno d’oggi può quindi essere interamente sviluppata utilizzando il linguaggio JavaScript, acquisendone sia i suoi vantaggi che gli svantaggi; le nuove tecnologie introdotte ambiscono quindi a diventare la soluzione per i problemi presenti in JavaScript e di conseguenza si propongono come potenziali nuovi linguaggi completi per la programmazione web del futuro, anticipando anche le prossime evoluzioni delle tecnologie già esistenti preannunciate dagli enti standard della programmazione web, il W3C ed ECMAScript. In questa tesi saranno affrontate le tematiche appena introdotte confrontando tra loro le tecnologie in gioco con lo scopo di ottenere un’ampia panoramica delle soluzioni che uno sviluppatore web dovrà prendere in considerazione per realizzare un sistema di importanti dimensioni; in particolare sarà approfondito il linguaggio TypeScript proposto da Microsoft, il quale è nato in successione a Dart apparentemente con lo stesso scopo, ma grazie alla compatibilità con JavaScript e soprattutto con il vasto mondo di librerie legate ad esso nate in questi ultimi anni, si presenta nel mercato come tecnologia facile da apprendere per tutti gli sviluppatori che già da tempo hanno sviluppato abilità nella programmazione JavaScript.
Resumo:
La tesi qui presentata è stata svolta all’interno del Laboratorio di Sintesi Finale “Architettura sostenibile" e propone la riqualificazione di un edificio ACER, sito a Bologna in via Gandusio, un’area strategicamente centrale a ridosso del centro storico e al contempo inserita all’interno delle dinamiche urbane della prima periferia. Si tratta di un complesso di edilizia residenziale sociale e, perciò, è stato necessario elaborare preliminarmente una sorta di quadro conoscitivo per individuare le problematiche e le tendenze comuni sia a casistiche italiane che europee. Dopo un inquadramento generale sulla situazione dei modelli famigliari e dell’abitare; è stata effettuata una panoramica su alcuni interventi europei, dai quali si è cercato di attingere e elaborare soluzioni e metodologie di intervento innovative, prendendo in considerazione sia elementi di rigenerazione del tessuto urbano, sia soluzioni tecnologiche e costruttive applicate a casi specifici. La situazione dell’edilizia residenziale sociale, attualmente, vede una forte scarsità di alloggi, tale da non riuscire a soddisfare tutte le richieste della popolazione. Negli ultimi trenta anni, la quota di produzione di alloggi di edilizia sociale è progressivamente calata, contrariamente agli altri paesi europei, caratterizzati da un andamento costante. Al contempo, si è registrato l’aumento di persone in condizioni di disagio abitativo e sociale. Il progetto risponde alle eterogenee esigenze dei rinnovati modelli famigliari contemporanei, prevedendo opere di completamento funzionale e una diversificazione dell’offerta tipologica degli alloggi, unita all’integrazione di nuovi servizi per gli abitanti e alla rivalorizzazione dell’identità dell’edificio in quanto manufatto polarizzante. Il progetto adotta il metodo della riqualificazione sostenibile e delle tematiche ad essa inerenti, approfondite durante il percorso di lavoro svolto all’interno del Laboratorio di Sintesi Finale “Architettura Sostenibile”. Tutti gli interventi eseguiti sul manufatto sono stati incentrati sul tema della sostenibilità, per ridurre l’uso dei materiali e l’uso del territorio. Sono stati ridotti i deficit tecnologici e soprattutto energetici dell’involucro edilizio, combinando all’applicazione di soluzioni tecnologiche la riqualificazione dello spazio urbano e della funzionalità degli spazi dell’abitare. Questo lavoro si propone di confrontarsi con la condizione attuale dell’housing sociale, cercando di rispondere alle esigenze abitative contemporanee, riqualificando e ripensando gli spazi e migliorandone il comportamento strutturale in caso di evento sismico. Per evitare di trattarlo come un episodio sporadico, un’anomalia, l’intervento ha cercato di collocarsi all’interno del contesto urbano e del tessuto insediativo, dialogando con essi per fornire risposte a problematiche concrete e reali. Per questo si è deciso di intervenire anche sulle aree adiacenti, provando a fornire soluzioni alle dinamiche incompiute e alle esigenze sociali del quartiere.
Resumo:
Scopo della tesi è di estendere un celebre teorema di Montel, sulle famiglie normali di funzioni olomorfe, all'ambiente sub-ellittico delle famiglie di soluzioni u dell'equazione Lu=0, dove L appartiene ad un'ampia classe di operatori differenziali alle derivate parziali reali del secondo ordine in forma di divergenza, comprendente i sub-Laplaciani sui gruppi di Carnot, i Laplaciani sub-ellittici su arbitrari gruppi di Lie, oltre all'operatore di Laplace-Beltrami su varietà di Riemann. A questo scopo, forniremo una versione sub-ellittica di un altro notevole risultato, dovuto a Koebe, che caratterizza le funzioni armoniche come punti fissi di opportuni operatori integrali di media con nuclei non banali. Sarà fornito anche un adeguato sostituto della formula integrale di Cauchy.
Resumo:
In questa tesi viene presentata un’analisi dettagliata sulla struttura di profili recettori di neuroni coinvolti nell’elaborazione visiva, con particolare attenzione per le cellule appartenenti alla corteccia visiva primaria (V1). Dopo aver illustrato brevemente il percorso effettuato dall’informazione visiva, costituito da retina, nucleo genicolato laterale e V1, vengono descritte la struttura e le principali caratteristiche di profili recettori dei neuroni appartenenti ad ognuno di questi livelli di elaborazione. Per modellare i profili recettori di cellule corticali in V1 si è deciso di utilizzare filtri bidimensionali realizzati mediante funzioni di Gabor nel dominio spaziale. Questo modello ha, infatti, il grande vantaggio di possedere alcune tra le maggiori proprietà dei profili recettori di neuroni appartenenti a V1: struttura del profilo recettore nello spazio (x,y), selettività in orientazione e in frequenza spaziale, indipendenza dalla fase dello stimolo. Viene successivamente presentato il concetto di campo di associazione visivo, mediante il quale sono determinate le caratteristiche principali (posizione spaziale ed orientazione) che diversi oggetti devono possedere per essere percepiti non come unità singole, ma come un unico elemento. I campi di associazione possono essere modellati mediante l’utilizzo del sistema di equazioni differenziali proposto da Citti-Sarti, le cui soluzioni sono curve integrali adatte a ricostruire la struttura dei campi di associazione, come proposti da Field, Hayes ed Hess. Diverse ipotesi sono state presentate su come cellule appartenenti a V1 siano in grado di realizzare simili campi di associazione, ed in particolare, da dove queste possano prendere le informazioni necessarie per farlo. Una di queste è quella sostenuta dai dati di Bosking et al., secondo i quali le connessioni intracorticali più fitte sono quelle tra neuroni non adiacenti tra loro, i cui profili recettori sono co-orientati (con la stessa orientazione preferenziale) e co-assiali (disposti lungo un asse del campo visivo che corrisponde all’orientazione preferenziale). L’analisi effettuata in questa tesi ha come obbiettivo proprio quello di ottenere informazioni utili su come cellule corticali siano legate alla fenomenologia dei campi di associazione. Come già detto, un filtro di Gabor bidimensionale può essere considerato un buon modello per profili recettori di questo tipo di cellule e quindi è possibile definirlo in maniera astratta come l’unità fondamentale nel processo di elaborazione visiva. Per questo motivo viene effettuata un’analisi di cross-correlazione tra un filtro di Gabor con una determinata orientazione e una famiglia di filtri di Gabor aventi n orientazioni. I risultati ottenuti sono stati trattati utilizzando la tecnica di soppressione dei non massimi, in modo da estrarre per ogni punto dell’immagine l’orientazione per la quale si ottiene la risposta massima. Successivamente, dai dati è stato possibile calcolare delle curve integrali simili a quelle ottenute dal modello differenziale proposto da Citti-Sarti. I risultati ottenuti da questa analisi si sono rivelati utili per comprendere più nel dettaglio i processi di elaborazione dei neuroni corticali, ed in particolare, per capire in che modo le informazioni necessarie per la realizzazione di strutture complesse ed articolate come quelle dei campi di associazione, siano già contenute intrinsecamente all’interno di ogni cellula corticale, unità fondamentale dell’elaborazione visiva.
Resumo:
Partendo da un precedente studio, realizzato su di una macchina cellofanatrice ad asse verticale, si è arrivati ad ottenere un modello analitico per la verifica strutturale dell’anello rotante di tali macchine. Si è cercato cioè, di fornire un valido strumento per il dimensionamento di anelli rotanti nelle moderne macchine cellofanatrici, aventi geometria coerente con quella presentata nelle ipotesi iniziali. Per fare ciò, si sono determinate, ove possibile, equazioni normalizzate e adimensionalizzate, che godono quindi di una più ampia validità di impiego; a partire dalle equazioni del precedente studio, che erano appunto finalizzate alla risoluzione del caso specifico preso in considerazione. Vengono presentate in questo elaborato le equazioni che descrivono la struttura precedentemente studiata ed il procedimento che si è effettuato per rendere il nuovo lavoro indipendente dalle caratteristiche delle sollecitazioni esterne e della geometria dell’anello stesso. Sono mostrate le equazioni ottenute per le varie incognite iperstatiche, per i momenti flettenti e sforzo normale normalizzati e assoluti, ed i relativi grafici. Grazie appunto ad alcuni di questi, si ottengono rapidamente, tramite l’applicazione di semplici formule, informazioni sullo stato di sollecitazione dell’anello. Sono infine presentati alcuni esempi per sottolineare la validità dei risultati ottenuti e la semplicità di utilizzo dei grafici ricavati.
Resumo:
In questo lavoro di tesi è stato elaborato un modello analitico al fine di ottenere una stima dell’ampiezza di delaminazione a seguito di impatti a bassa velocità in laminati in composito, in particolare carbon/epoxy. Nel capitolo 2 è descritto il comportamento meccanico di tali laminati (equazioni costitutive della singola lamina, dell’intero laminato e costanti ingegneristiche dell’intero laminato per qualsiasi sistema di riferimento). Nel capitolo 3 viene descritta la filosofia di progettazione damage tolerance per tali materiali sottoposti a low-velocity impact (LVI) e richiamato il concetto di structural health monitoring. In particolare vengono descritti i tipi di difetti per un laminato in composito, vengono classificati gli impatti trasversali e si rivolge particolare attenzione agli impatti a bassa velocità. Nel paragrafo 3.4 sono invece elencate diverse tecniche di ispezione, distruttive e non, con particolare attenzione alla loro applicazione ai laminati in composito. Nel capitolo 4 è riportato lo stato dell’arte per la stima e la predizione dei danni dovuti a LVI nei laminati: vengono mostrate alcune tecniche che permettono di stimare accuratamente l’inizio del danno, la profondità dell’indentazione, la rottura delle fibre di rinforzo e la forza massima di impatto. L’estensione della delaminazione invece, è difficile da stimare a causa dei numerosi fattori che influenzano la risposta agli impatti: spesso vengono utilizzati, per tale stima, modelli numerici piuttosto dispendiosi in termini di tempo e di calcolo computazionale. Nel capitolo 5 viene quindi mostrata una prima formula analitica per il calcolo della delaminazione, risultata però inaffidabile perché tiene conto di un numero decisamente ristretto di fattori che influenzano il comportamento agli LVI. Nel capitolo 6 è mostrato un secondo metodo analitico in grado di calcolare l’ampiezza di delaminazione mediante un continuo aggiornamento della deflessione del laminato. Dal confronto con numerose prove sperimentali, sembra che il modello fornisca risultati vicini al comportamento reale. Il modello è inoltre fortemente sensibile al valore della G_IIc relativa alla resina, alle dimensioni del laminato e alle condizioni di vincolo. É invece poco sensibile alle variazioni delle costanti ingegneristiche e alla sequenza delle lamine che costituiscono il laminato. La differenza tra i risultati sperimentali e i risultati del modello analitico è influenzata da molteplici fattori, tra cui il più significativo sembra essere il valore della rigidezza flessionale, assunto costante dal modello.
Resumo:
Il presente lavoro di tesi inizia da un’indagine svolta durante il Laboratorio di Sintesi Finale sulla città di Bogotá. Nello specifico ci si è occupati dello studio di una parte ristretta della città: la CUB, la città universitaria di Bogotá. Sì è in primo luogo analizzato gli aspetti salienti di quella parte di città, mettendone in evidenza sia gli elementi caratteristici che le criticità. Questo studio ha condotto alla definizione di alcune problematiche che, per importanza, sono state il centro del progetto successivamente proposto. La sintesi preliminare ha così prodotto una prima ipotesi progettuale che è stata il punto di partenza dello studio successivo. Nella fase successiva invece si è operato per un ulteriore approfondimento, passando sul piano reale e affrontando i temi scelti per l’area della Ciudad Universitaria de Bogotá. La CUB rappresenta il fulcro dell’offerta universitaria statale di Bogotá e i piani di sviluppo per il futuro la vedranno assoggettata ad un processo di forte saturazione delle aree ancora libere. Visto la dimensione di questo luogo, si è optato per la definizione di una possibile metodologia di intervento, più soddisfare il desiderio (a volte irrinunciabile) di ridefinizione della sua struttura interna, oggi particolarmente degradata. L’idea trova il suo senso anche nel desiderio di potere generare una maggiore integrazione tra l’uso degli spazi della CUB e i cittadini, che attualmente sono esclusi, primariamente per ragioni di sicurezza, dalla possibilità di godere di questo luogo. Il testo mette in evidenza, mediante un processo per tappe, il percorso intellettuale che ha portato alla definizione delle scelte progettuali rappresentate nelle tavole finali.
Resumo:
Questa tesi di laurea tratta delle partizioni di un intero positivo. La tesi viene suddivisa in tre capitoli: nel primo capitolo definirò cosa significa scomporre additivamente un intero positivo e come si può rappresentare una partizione cioè utilizzando diagrammi, chiamati \textit{diagrammi di Ferrers}, o tabelle, chiamate \textit{tableau di Young}, si possono rappresentare graficamente partizioni. In seguito, in questo capitolo, verrà definita la funzione di partizione e, infine, tratterò delle partizioni ordinate. Il secondo capitolo ha carattere storico: infatti, mostra come cinque famosi matematici, Eulero, Ramanujan e Hardy, Hans Rademacher e Ken Ono, nel tempo abbiano affrontato il problema di trovare una formula matematica che meglio rappresenti la funzione di partizione. Il terzo ed ultimo capitolo riguarda le applicazioni delle partizioni, cioè come esse abbiano una relazione con le classi di coniugio nel gruppo simmetrico $S_{n}$ e con le classificazioni dei gruppi abeliani di ordine $p^{n}$, con p un numero primo. Di alcune affermazioni ( o teoremi ) nei capitoli seguenti non è stata riportata la dimostrazione; in questi casi si rimanda direttamente alle corrispondenti citazioni bibliografiche.