1000 resultados para sospensione progressiva curva rigidezza MATHEMATICA foglio di calcolo
Resumo:
Lo scopo della tesi è quello di affrontare la progettazione con un approccio,quanto più attuale e per certi versi avanguardista, chiamato Parametric design (progettazione parametrica), accoppiato efficacemente col concetto di Arte generativa (in questo caso Architettura). Già nel 1957 Luigi Moretti affrontò il tema dell’architettura parametrico-generativa fondando l’IRMOU (Istituto per la Ricerca Matematica e Operativa applicata all'Urbanistica) e oggi è una mentalità molto diffusa nei più grandi studi del mondo. Il tema non è solo tecnologico o informatico strumentale, ma è proprio un modo di pensare e immaginare il possibile, costruito o naturale che sia. E’ un modo di vivere la propria creatività. L’aggettivo “generativa” è legato al fatto che l’arte in esame è generata seguendo regole preimpostate e ben definite dal progettista, coerentemente agli obiettivi e alle finalità del progetto. L’evoluzione delle stesse, seguendo relazioni molto semplici, può dar vita a risultati sorprendenti e inaspettati, dotati di una notevole complessità che però, se letta nell’insieme, è perfettamente in armonia con l’idea progettuale di partenza. Il fascino di questa materia è il legame entusiasmante che crea tra architettura, ingegneria, poesia, filosofia, matematica, biologia, fisica, pittura ecc ecc. Questo perché i concetti di evoluzione, di relazione e di generazione appartengono a tutto ciò che ci circonda, e quindi alla concezione umana di vita. E’ possibile in questo modo permeare il costrutto progettuale con principi e regole oggettivamente riconoscibili e apprezzabili dallo spettatore perché instrisi di una forte veridicità processuale. Il titolo "Oxymoron" è la traduzione inglese della figura retorica ossimoro,la quale è strettamente connessa all’ispirazione progettuale: proviene dall’indagine approfondita di processi evolutivi (distruttivi in questo caso) caratterizzanti realtà naturali che, esplorate con sempre più accuratezza, determinano morfologie e forme aventi profonde radici strutturali. La distruzione che crea lo spazio. La genesi stessa della forma segue predominanti algoritmi matematici governati e corretti da variabili di diversa natura che definiscono l'enviroment di influenze interagenti ed agenti sul campione di studio. In questo caso la ricerca è focalizzata su processi erosivi fisici e chimici, di agenti esterni (quali vento e sali rispettivamente) ,di cui materiali inorganici, quali minerali e aggregati degli stessi (rocce), sono soggetti. In particolare, l’interesse è approfondito su fenomeni apparentemente emergenti dei tafoni e dei cosiddetti Micro canyon. A tal scopo si sfrutterà un metodo di soft kill option (SKO) di ottimizzazione topologica (optimization topology) attraverso gli strumenti informatici più idonei quali software di modellazione parametrica e di calcolo computazionale. La sperimentazione sta proprio nell'utilizzare uno strumento concepito per uno scopo, con un'ottica strettamente ingegneristica, per un'altra meta, ossia ricavare e ottenere se possibile un metodo di lavoro o anche solo un processo generativo tale da riprodurre o simulare casi e situazioni riscontrabili in natura negli eventi soggetti a erosione. Il tutto coerente con le regole che stanno alla base della genesi degli stessi. Il parallelismo tra singolarità naturale e architettura risiede nella generazione degli spazi e nella combinazione di questi. L’ambizioso obiettivo è quello di innescare un ciclo generativo, che messo in comunicazione diretta con un contesto variegato ed eterogeneo, dia vita a una soluzione progettuale dall'alto contenuto morfologico e spaziale.
Resumo:
Microprocessori basati su singolo processore (CPU), hanno visto una rapida crescita di performances ed un abbattimento dei costi per circa venti anni. Questi microprocessori hanno portato una potenza di calcolo nell’ordine del GFLOPS (Giga Floating Point Operation per Second) sui PC Desktop e centinaia di GFLOPS su clusters di server. Questa ascesa ha portato nuove funzionalità nei programmi, migliori interfacce utente e tanti altri vantaggi. Tuttavia questa crescita ha subito un brusco rallentamento nel 2003 a causa di consumi energetici sempre più elevati e problemi di dissipazione termica, che hanno impedito incrementi di frequenza di clock. I limiti fisici del silicio erano sempre più vicini. Per ovviare al problema i produttori di CPU (Central Processing Unit) hanno iniziato a progettare microprocessori multicore, scelta che ha avuto un impatto notevole sulla comunità degli sviluppatori, abituati a considerare il software come una serie di comandi sequenziali. Quindi i programmi che avevano sempre giovato di miglioramenti di prestazioni ad ogni nuova generazione di CPU, non hanno avuto incrementi di performance, in quanto essendo eseguiti su un solo core, non beneficiavano dell’intera potenza della CPU. Per sfruttare appieno la potenza delle nuove CPU la programmazione concorrente, precedentemente utilizzata solo su sistemi costosi o supercomputers, è diventata una pratica sempre più utilizzata dagli sviluppatori. Allo stesso tempo, l’industria videoludica ha conquistato una fetta di mercato notevole: solo nel 2013 verranno spesi quasi 100 miliardi di dollari fra hardware e software dedicati al gaming. Le software houses impegnate nello sviluppo di videogames, per rendere i loro titoli più accattivanti, puntano su motori grafici sempre più potenti e spesso scarsamente ottimizzati, rendendoli estremamente esosi in termini di performance. Per questo motivo i produttori di GPU (Graphic Processing Unit), specialmente nell’ultimo decennio, hanno dato vita ad una vera e propria rincorsa alle performances che li ha portati ad ottenere dei prodotti con capacità di calcolo vertiginose. Ma al contrario delle CPU che agli inizi del 2000 intrapresero la strada del multicore per continuare a favorire programmi sequenziali, le GPU sono diventate manycore, ovvero con centinaia e centinaia di piccoli cores che eseguono calcoli in parallelo. Questa immensa capacità di calcolo può essere utilizzata in altri campi applicativi? La risposta è si e l’obiettivo di questa tesi è proprio quello di constatare allo stato attuale, in che modo e con quale efficienza pùo un software generico, avvalersi dell’utilizzo della GPU invece della CPU.
Resumo:
Le reti di oggetti intelligenti costituiscono una realtà che si sta affermando nel mondo quotidiano. Dispositivi capaci di comunicare tra loro, oltre che svolgere la propria funzione primaria, possono comporre una nuvola che faccia riferimento al legittimo proprietario. Un aspetto fondamentale di questo scenario riguarda la sicurezza, in particolar modo per garantire una comunicazione protetta. Il soddisfacimento di questo requisito è fondamentale anche per altri punti come l'integrità dell'informazione condivisa e l'autenticazione. Lo strumento più antico e tutt'ora adatto alla riservatezza di una comunicazione è costituito dalla crittografia. Una tecnica crittografica è schematicamente composta da un algoritmo che, a seconda di una chiave e del messaggio in ingresso, restituisce in uscita un messaggio cifrato, il crittogramma. Questo viene poi inviato e al legittimo destinatario che, essendo in possesso della chiave e dell'algoritmo, lo converte nel messaggio originale. L'obiettivo è rendere impossibile ad un utente malevolo - non dotato di chiave - la ricostruzione del messaggio. L'assunzione che l'algoritmo possa essere noto anche a terze parti concentra l'attenzione sul tema della chiave. La chiave deve essere sufficientemente lunga e casuale, ma soprattutto deve essere nota ai due utenti che intendono instaurare la comunicazione. Quest'ultimo problema, noto come distribuzione della chiave, è stato risolto con il sistema RSA a chiave pubblica. Il costo computazionale di questa tecnica, specialmente in un contesto di dispositivi non caratterizzati da grandi potenze di calcolo, suggerisce però la ricerca di strade alternative e meno onerose. Una soluzione promettente ed attualmente oggetto di studio sembra essere costituita dalle proprietà del canale wireless. Un ponte radio è caratterizzato da una funzione di trasferimento che dipende dall'ambiente in cui ci si trova e, per il teorema di reciprocità, risulta essere lo stesso per i due utenti che l'hanno instaurato. Oggetto della tesi è lo studio ed il confronto di alcune delle tecniche possibili per estrarre una chiave segreta da un mezzo condiviso, come quello del canale wireless. Si presenterà il contesto in cui verrà sviluppato l'elaborato. Si affronteranno in particolare due casi di interesse, costituiti dalla attuale tecnologia di propagazione del segnale a banda stretta (impiegata per la maggior parte delle trasmissioni senza fili) per passare a quella relativamente più recente della banda Ultra-larga (UWB). Verranno poi illustrate delle tecniche per ottenere stringhe di bit dai segnali acquisiti, e saranno proposti dei metodi per la loro correzione da eventuali discordanze. Saranno infine riportate le conclusioni sul lavoro svolto e le possibili strade future.
Resumo:
Tesi interdisciplinare che coniuga due importanti ambiti della Matematica: il Calcolo Numerico e la Didattica della Matematica. Alcuni algoritmi utilizzati per il web information retrieval sono stati introdotti all'interno di due classi di scuola superiore avvalendosi del programma di calcolo Matlab.
Resumo:
In questa tesi presentiamo una descrizione autoconsistente della dualità Colore/Cinematica nelle teorie di gauge e al processo di Double Copy. Particolare attenzione viene data all'approccio alla dualità con il formalismo di cono-luce, in quanto semplifica notevolmente sia il calcolo sia l'interpretazione fisica: vengono indagati i settori duale e self-duale per poi passare al modello di Chalmers e Siegel per l'estensione alla teoria generale. Proponiamo quindi uno Scalar Matrix Model, che può essere un buon modello per generare ampiezze ottenibili da una Double Copy `inversa', e ne studiamo un'eventuale dualità a la Colore/Cinematica. Vengono illustrati alcuni casi particolari di rottura spontanea di simmetria. In appendice riportiamo un notebook di Mathematica per il calcolo di ampiezze tree level di puro gauge, utile per i calcoli necessari allo studio della dualità.
Resumo:
L’obiettivo di questa tesi di laurea è stato la valutazione delle sovratensioni generate da una scarica atmosferica in linee miste di tipo aerea-cavo affluenti a stazioni di trasformazione. Lo studio si è incentrato sul caso della fulminazione diretta su una fase della linea aerea, il cosiddetto shielding failure, nella situazione peggiore ovvero senza innesco degli spinterometri posti a protezione della catena di isolatori. Applicando la teoria dei diagrammi a graticcio, è stata studiata la propagazione di un’onda di tensione (gradino, triangolo rettangolo e triangolo scaleno), generata da una scarica atmosferica, lungo tre particolari configurazioni di una linea mista AT 132 kV. In particolare, è stato implementato un codice di calcolo in Matlab, con il quale sono state determinate le componenti riflesse, che si formano quando l’onda di tensione incidente va ad impattare nei punti di discontinuità d’impedenza d’onda della linea mista. Tale calcolo ha consentito sia la rappresentazione temporale del transitorio, sia la determinazione del valore di cresta raggiunto dalla sovratensione, in particolari punti sensibili della linea, quali le estremità della linea in cavo ed il collegamento con il trasformatore. Il calcolo analitico è stato poi confrontato con i risultati delle simulazioni relative alla fulminazione diretta su una fase della linea aerea, eseguite con il software EMTPWorks. Il lavoro si è incentrato in particolar modo, sulla determinazione del modello che va a simulare la linea mista presa in considerazione, anche mediante il confronto con un noto caso di studio riportato sulle pubblicazioni.
Resumo:
Studio preliminare di una futura installazione di un banco prova con sistema ORC in parallelo ad una fuel cell. Analisi e scelta dell'impianto ORC, scelta della fonte di calore e del sistema di condensazione in base alle esigenze dell'impianto ORC scelto. Scrittura di un codice di calcolo per simulare l'intero sistema installato.
Resumo:
Il presente lavoro è stato svolto presso la struttura di Fisica Medica dell'Azienda Ospedaliera IRCCS "Arcispedale S. Maria Nuova" di Reggio Emilia e consiste nello sviluppo di un sistema per l'ottimizzazione della dose in Radioterapia tramite dose-painting basato sui voxel. Il dose painting è una tecnica di pianificazione del trattamento di radioterapia che si basa sull'assegnazione o ridistribuzione della dose secondo le informazioni biologiche e metaboliche che i moderni sistemi di imaging sono in grado di fornire. La realizzazione del modulo di calcolo BioOPT è stata possibile grazie all'utilizzo dei due software open-source Plastimatch e CERR, specifici per l'elaborazione e la registrazione di immagini mediche di diversi tipi e formati e per la gestione, la modifica e il salvataggio di piani di trattamento di radioterapia creati con la maggior parte dei software commerciali ed accademici. Il sistema sviluppato è in grado di registrare le immagini relative ad un paziente, in generale ottenute da diverse tipologie di imaging e acquisite in tempi diversi ed estrarre le informazioni biologiche relative ad una certa struttura. Tali informazioni verranno poi utilizzate per calcolare le distribuzioni di dose "ottimale" che massimizzano il valore delle funzioni radiobiologiche utilizzate per guidare il processo di redistribuzione della dose a livello dei voxel (dose-painting). In questo lavoro il modulo è stato utilizzato principalmente per l'ottimizzazione della dose in pazienti affetti da Glioblastoma, un tumore cerebrale maligno tra i più diffusi e mortali. L'ottimizzatore voxel-based, infatti, è stato sviluppato per essere utilizzabile all'interno di un progetto di ricerca finanziato dal Ministero della Salute per la valutazione di un programma di terapia che include l'uso di un innovativo acceleratore lineare ad alto rateo di dose per la cura di tumori cerebrali in fase avanzata. Al fine di migliorare il trattamento radiante, inoltre, lo studio include la somministrazione della dose tramite dose-painting con lo scopo di verificarne l'efficacia. I risultati ottenuti mostrano che tramite il modulo sviluppato è possibile ottenere distribuzioni di dose eterogenee che tengono conto delle caratteristiche biologiche intratumore stimate a partire dalle immagini multimodali. Inoltre il sistema sviluppato, grazie alla sua natura 'open', è altamente personalizzabile a scopi di ricerca e consente di simulare distribuzioni di dose basate sui voxel e di confrontarle con quelle ottenute con i sistemi commerciali ad uso clinico, che non consentono questo tipo di ottimizzazioni.
Resumo:
L’esposizione degli operatori in campo agricolo alle vibrazioni trasmesse al corpo intero, produce effetti dannosi alla salute nel breve e nel lungo termine. Le vibrazioni che si generano sulle trattrici agricole hanno una elevata intensità e una bassa frequenza. Le componenti orizzontali, amplificate dalla posizione elevata della postazione di guida dall’asse di rollio, presentano maggiori criticità per quanto riguarda i sistemi di smorzamento rispetto alle componenti verticali. Queste caratteristiche rendono difficoltosa la progettazione dei sistemi dedicati alla riduzione del livello vibrazionale per questa categoria di macchine agricole. Nonostante l’installazione di diversi sistemi di smorzamento, il livello di vibrazioni a cui è sottoposto l’operatore può superare, in diverse condizioni di impiego, i livelli massimi imposti dalla legge per la salvaguardia della salute. L’obiettivo di questo lavoro è quello di valutare l’influenza dei moti rigidi di una trattrice (beccheggio, rollio e saltellamento) dotata di sospensione assale anteriore, sospensione cabina e sospensione sedile, sul livello vibrazionale trasmesso all’operatore.E’ stata pertanto strumenta una trattrice con accelerometri e inclinometri installati su telaio, cabina e sedile e utilizzata in diverse condizioni di lavoro in campo e di trasporto su strada. Dall’analisi delle prove effettuate emerge che durante il trasporto su strada è predominante l’accelerazione longitudinale, a causa dell’elevata influenza del beccheggio. La sospensione riduce notevolmente il moto rigido di beccheggio mentre l’effetto della sospensione della cabina è quello di incrementare, in ogni condizione di lavoro, il livello di accelerazione trasmesso dal telaio della macchina.
Resumo:
Dopo un'introduzione sulla neccessità di ottimizzare i consumi energetici relativi all'ambito edilizio, si analizza attraverso due differenti metodologie di calcolo (dinamica/stazionaria) i fabbisogni energetici di una palazzina costituita da 15 appartamenti. Sono stati utilizzati Trnsys 17 e Termus.
Resumo:
Un sistema di distribuzione idropotabile (Water Distribution Network -WDN), data la sua complessità strutturale e funzionale, per l' ordinario esercizio richiede elevati quantitativi di energia. L'attuale trend tecnico/scientifico incoraggia la loro gestione e progettazione nell'ottica di un generale risparmio di energia che, oltre ad un indiscusso vantaggio economico, implica sopratutto una razionalizzazione dell'impiego di risorsa idrica. Questo è il contesto scientifico/culturale in cui il presente elaborato si colloca. Nello specifico, ci si propone la caratterizzazione energetica di la rete di distribuzione idrica Cabrera_network.(rivisitazione della rete presentata da E.Cabrera e M.Pardo nel loro studio del 2010) . Si sono quindi qualificati i legami tra i consumi energetici ed aspetti, quali: dimensionamento dei condotti, perdite idriche, tipologia di pompa centrifuga sfruttata e livello idrico massimo del serbatoio di compenso. Ciò è stato esplicato in due fasi di analisi. In una primo momento, si sono impiegati strumenti classi quali il simulatore idraulico Epanet2 e i fogli di calcolo Excel. In un secondo momento, il problema dell'ottimizzazione energetica della rete è stato risolto a mezzo l'algoritmo euristico GHEST. Al di là delle specifiche conclusioni, cui si rinvia, l'elaborato consente di cogliere un più generale profilo di ordine metodologico: l'importanza di una visione d'insieme del problema energetico in un sistema di distribuzione idropotabile, dalla quale, nel caso di specie, emerge che la scelta più ragionevole, al fine dell'ottimizzazione energetica, consiste nell'individuazione del più idoneo modello di pompa alimentante la rete. Per poi, data l'onere progettuale e applicativo che comporta, provvedere al reinvestimento dei capitali risparmiati in attività volte alla riduzione delle perdite idriche. Sono questi infatti, i due aspetti che più incidono sui consumi energetici nel caso di studio.
Resumo:
L'obiettivo del presente lavoro è quello di modellare diversi tipi di sospensioni semi attive del sedile di una trattrice agricola ed implementare diverse strategie di controllo di smorzamento e rigidezza al fine di minimizzare la propagazione delle vibrazioni al corpo dell'operatore.
Resumo:
I moderni motori a combustione interna diventano sempre più complessi L'introduzione della normativa antinquinamento EURO VI richiederà una significativa riduzione degli inquinanti allo scarico. La maggiore criticità è rappresentata dalla riduzione degli NOx per i motori Diesel da aggiungersi a quelle già in vigore con le precedenti normative. Tipicamente la messa a punto di una nuova motorizzazione prevede una serie di test specifici al banco prova. Il numero sempre maggiore di parametri di controllo della combustione, sorti come conseguenza della maggior complessità meccanica del motore stesso, causa un aumento esponenziale delle prove da eseguire per caratterizzare l'intero sistema. L'obiettivo di questo progetto di dottorato è quello di realizzare un sistema di analisi della combustione in tempo reale in cui siano implementati diversi algoritmi non ancora presenti nelle centraline moderne. Tutto questo facendo particolare attenzione alla scelta dell'hardware su cui implementare gli algoritmi di analisi. Creando una piattaforma di Rapid Control Prototyping (RCP) che sfrutti la maggior parte dei sensori presenti in vettura di serie; che sia in grado di abbreviare i tempi e i costi della sperimentazione sui motopropulsori, riducendo la necessità di effettuare analisi a posteriori, su dati precedentemente acquisiti, a fronte di una maggior quantità di calcoli effettuati in tempo reale. La soluzione proposta garantisce l'aggiornabilità, la possibilità di mantenere al massimo livello tecnologico la piattaforma di calcolo, allontanandone l'obsolescenza e i costi di sostituzione. Questa proprietà si traduce nella necessità di mantenere la compatibilità tra hardware e software di generazioni differenti, rendendo possibile la sostituzione di quei componenti che limitano le prestazioni senza riprogettare il software.
Resumo:
Il presente lavoro di tesi è stato realizzato presso l’azienda M.A.G (Mecaer Aviation Group) s.p.a. nella sede presente a Monteprandone (AP) e descrive uno studio realizzato nell’ambito delle strutture in materiale composito. Lo scopo della tesi è la caratterizzazione meccanica di pannelli sandwich realizzati con strutture in composito non metallico. Nello specifico si vanno a determinare le caratteristiche meccaniche mediante la realizzazione di prove di resistenza su pannelli sandwich di diversa tipologia. I pannelli vengono realizzati per applicazioni secondarie, quali gli interni dell’elicottero dove l’utilizzo del composito ”classico” determina resistenza strutturale eccessiva rispetto alle reali necessità, in quanto il dimensionamento avviene per rigidezza, al fine di resistere alla vibrazioni presenti, invece che per robustezza. Il modo di vibrare del sandwich deve essere al di fuori del range di frequenza delle vibrazioni presenti nella struttura dell’elicottero. Si vuole verificare che il sacrificio di parte delle caratteristiche meccaniche sia contenuto entro certi limiti e sia giustificabile in termini di incremento del comfort acustico in cabina passeggeri.
Resumo:
Nel corso del mio lavoro di ricerca mi sono occupata di identificare strategie che permettano il risparmio delle risorse a livello edilizio e di approfondire un metodo per la valutazione ambientale di tali strategie. La convinzione di fondo è che bisogna uscire da una visione antropocentrica in cui tutto ciò che ci circonda è merce e materiale a disposizione dell’uomo, per entrare in una nuova era di equilibrio tra le risorse della terra e le attività che l’uomo esercita sul pianeta. Ho quindi affrontato il tema dell’edilizia responsabile approfondendo l’ambito delle costruzioni in balle di paglia e terra. Sono convinta che l’edilizia industriale abbia un futuro molto breve davanti a sé e lascerà inevitabilmente spazio a tecniche non convenzionali che coinvolgono materiali di semplice reperimento e posa in opera. Sono altresì convinta che il solo utilizzo di materiali naturali non sia garanzia di danni ridotti sull’ecosistema. Allo stesso tempo ritengo che una mera certificazione energetica non sia sinonimo di sostenibilità. Per questo motivo ho valutato le tecnologie non convenzionali con approccio LCA (Life Cycle Assessment), approfondendo gli impatti legati alla produzione, ai trasporti degli stessi, alla tipologia di messa in opera, e ai loro possibili scenari di fine vita. Inoltre ho approfondito il metodo di calcolo dei danni IMPACT, identificando una carenza nel sistema, che non prevede una categoria di danno legata alle modifiche delle condizioni idrogeologiche del terreno. La ricerca si è svolta attraverso attività pratiche e sperimentali in cantieri di edilizia non convenzionale e attività di ricerca e studio sull’LCA presso l’Enea di Bologna (Ing. Paolo Neri).