999 resultados para Campo magnetico,Via Lattea,Metodi di rilevazione
Resumo:
In questa tesi si presenta il concetto di politopo convesso e se ne forniscono alcuni esempi, poi si introducono alcuni metodi di base e risultati significativi della teoria dei politopi. In particolare si dimostra l'equivalenza tra le due definizioni di H-politopo e di V-politopo, sfruttando il metodo di eliminazione di Fourier-Motzkin per coni. Tutto ciò ha permesso di descrivere, grazie al lemma di Farkas, alcune importanti costruzioni come il cono di recessione e l'omogeneizzazione di un insieme convesso.
Resumo:
Il lavoro sviluppato deriva dalla creazione, in sede di tirocinio, di un piccolo database, creato a partire dalla ricerca dei dati fino alla scelta di informazioni di rilievo e alla loro conseguente archiviazione. L’obiettivo dell’elaborato è rappresentato dalla volontà di ampliare quella conoscenza basilare posseduta sul mondo dell’informazione dal punto di vista gestionale. Infatti, considerando lo scenario odierno, si può affermare che lo studio del cliente attraverso delle informazioni rilevanti, di vario tipo, è una delle conoscenze fondamentali nel mondo dell’ingegneria gestionale. Il metodo di studio utilizzato è basato sulla comprensione delle diverse tipologie di dati presenti nel mondo aziendale e, di conseguenza, al loro legame con il mondo del web e soprattutto con i metodi di archiviazione più moderni e più utilizzati oggi sia dalle aziende, che non dai privati stessi; le piattaforme cloud. L’elaborato si suddivide in tre argomenti differenti ma strettamente collegati tra loro; la prima parte tratta di come l’informazione più basilare vada raccolta ed analizzata, la sezione centrale è legata al tema chiave dell’internet come mezzo di archiviazione e non più solo come piattaforma di ricerca del dato, mentre nel capitolo finale viene chiarito il concetto di cloud computing, comodo veloce ed efficiente, considerato da qualche anno il punto d’incontro fra i primi due argomenti. Nello specifico si andranno a presentare alcuni di applicazione reale del cloud da parte di aziende come Amazon, Google e Facebook, multinazionali che ad oggi sono riuscite a fare dell’archiviazione e della manipolazione dei dati, a scopi industriali, una delle loro fonti di guadagno. Il risultato è rappresentato da una panoramica sul funzionamento e sulle tecniche di utilizzo dell’informazione, partendo dal dato più irrilevante fino ad arrivare ai database condivisi utilizzati, se non addirittura controllati, dalle più rinomate aziende nazionali ed internazionali.
Resumo:
Durante la vita operativa di un aeromobile, gli elementi costitutivi possono essere soggetti a diverse tipologie di carichi. Questi carichi possono provocare la nascita e la propagazione di eventuali cricche, le quali una volta raggiunta una determinata dimensione possono portare alla rottura del componente stesso causando gravi incidenti. A tale proposito, la fatica costituisce uno dei fattori principali di rottura delle strutture aeronautiche. Lo studio e l’applicazione dei principi di fatica sugli aeroplani sono relativamente recenti, in quanto inizialmente gli aerei erano realizzati in tela e legno, un materiale che non soffre di fatica e assorbe le vibrazioni. I materiali aeronautici si sono evoluti nel tempo fino ad arrivare all’impiego dei materiali compositi per la costruzione degli aeromobili, nel 21. secolo. Il legame tra nascita/propagazione delle cricche e le tensioni residue ha portato allo sviluppo di numerose tecniche per la misurazione di queste ultime, con il fine di contrastare il fenomeno di rottura a fatica. Per la misurazione delle tensioni residue nei componenti metallici esistono diverse normative di riferimento, al contrario, per i materiali compositi, la normativa di riferimento è tuttora oggetto di studio. Lo scopo di questa tesi è quello di realizzare una ricerca e studiare dei metodi di riferimento per la misurazione delle tensioni residue nei laminati compositi, tramite l’approfondimento di una tecnica di misurazione delle tensioni residue, denominata Incremental Hole Drilling.
Resumo:
Questo elaborato riguarda l'analisi delle variazioni di pressione sul fondale del Mar Mediterraneo. Il primo obiettivo era quello di identificare la variabilità a basse frequenze della pressione sul fondo. I dati osservati sono stati raccolti presso l'osservatorio ANTARES che si trova 40 km al largo di Tolone e ricopre un'area di 180x180 m. Sono state analizzate tre serie temporali, L1, L3, L8, e da esse è stata ricostruita una serie temporale dall'1 gennaio 2009 al 31 dicembre 2013. Sono state applicate delle procedure di despiking, media su 30 minuti e gap-filling. Sono stati proposti due metodi di detiding, una media su tre giorni e il filtro di Doodson. Successivamente è stato eseguito un detrending. Un confronto tra l'analisi armonica e il filtro di Doodson mostra una similarità nei risultati. Per questa ragione, per continuare il lavoro, è stata utilizzata la serie a cui era stato tolto il trend e le maree tramite il filtro di Doodson. Togliere le maree ha reso possibile la rimozione dei segnali ad alta frequenza per potersi focalizzare sui segnali rimasti a bassa frequenza. Uno spettro sulla serie ha mostrato i segnali stagionali dominanti insieme alla cosiddetta Chandler wobble con una frequenza di 14 mesi.
Resumo:
L’elaborato illustra alcuni metodi di sequenziamento del DNA, partendo da dei cenni sulle tecniche a sfondo chimico tradizionali e di nuova generazione più diffuse. Tratta il sequenziamento tramite nanopori, descrivendo i fenomeni fisici nanoscopici su cui si basa, alla luce delle caratteristiche e delle proprietà degli acidi nucleici e dei pori in questione, concentrandosi in particolare sul nanoporo biologico α-emolisina. Di questa tecnica mostra i risultati raggiunti, le potenzialità ancora da sviluppare e i vantaggi finora emersi rispetto alle altre in uso da più tempo.
Resumo:
L’apparato muscolo scheletrico è composto da strutture muscolari, articolari e ossee. Tali tessuti sono molto diversi tra loro e hanno proprietà meccaniche estremamente variabili, pertanto presentano una transizione graduale in corrispondenza della loro giunzione, onde evitare l’insorgere di concentrazioni di tensione. L’evoluzione ha portato alla formazione di particolari interfacce che permettono la corretta trasmissione dei carichi distribuendo le tensioni su una superficie più ampia in corrispondenza della giunzione. Le interfacce che vanno a inserirsi nell’osso vengono definite entesi e in particolare, in questa review, analizzeremo il caso di quelle tra tendini/legamenti e osso. In questo lavoro ci siamo anche concentrati sulla giunzione miotendinea, ovvero tra muscolo e tendine. Sono numerose le lesioni che riguardano muscoli, ossa, tendini o legamenti e molto spesso l’infortunio avviene a livello della giunzione. Quando ciò accade vi sono diverse strade, ciascuna con i suoi vantaggi e svantaggi: sutura, autograft, allograft o xenograft. Oltre a queste soluzioni si è fatta gradualmente più spazio la possibilità di realizzare degli scaffold che vadano temporaneamente a sostituire la parte danneggiata e a promuovere la sua rigenerazione, degradandosi man mano. L’elettrofilatura (Elettrospinning) è un processo produttivo che negli ultimi decenni si è affermato come tecnica per la fabbricazione di questi scaffold, fino a diventare uno tra i principali processi utilizzati dai ricercatori in questo campo. Questa tecnica infatti permette di realizzare scaffold di nanofibre porose utilizzando polimeri biodegradabili e soprattutto biocompatibili. Lo scopo della review è proprio quello di scoprire tutti i lavori e gli studi che utilizzano l’elettrofilatura per realizzare degli scaffold per interfacce, delineando così lo stato dell’arte sui progressi fatti e sulle varie tecniche utilizzate.
Resumo:
Il seguente lavoro analizza l’influenza che il biochar ha nel ciclo dell’azoto nei suoli, in particolare in riferimento alla possibilità di diminuire il fenomeno di lisciviazione dei nitrati dato il continuo aumento in agricoltura dell’uso di fertilizzanti azotati. La scelta di questo tipo di ammendante è dovuta alle sue ampie potenzialità d’impiego e si pone in un percorso di economia circolare con la valorizzazione delle biomasse di scarto. Il lavoro si divide in un’approfondita ricerca bibliografica con elaborazione critica delle informazioni e una parte sperimentale. Si sono analizzate le interazioni che il biochar ha sui vari processi che compongono il ciclo dell’azoto. Sono stati riportati e discussi i principali metodi di determinazione delle capacità adsorbenti del biochar oltre ad un’analisi e una descrizione dei più comuni modelli di isoterme di adsorbimento. Si è testata la capacità adsorbente, tramite test di screening in batch, di sette tipi di biochar che presentavano origine e sintesi differenti. I biochar hanno presentato adsorbimenti molto modesti nei confronti dei nitrati evidenziando solo una diminuzione della quantità di nitrati rilasciati dal biochar stesso. Per quanto concerne l’ammonio, invece, i biochar hanno presentato percentuali di adsorbimento tra il 60-70% con un massimo del 80%.
Resumo:
La tesi riguarda lo studio di resine polimeriche derivanti da oli vegetali, impiegabili come leganti nei prodotti vernicianti per l’edilizia ed altri settori. I prodotti vernicianti plant-based sono stati confrontati con altri prodotti attualmente commercializzati, provenienti da fonti fossili. Considerata la produzione ingente dei prodotti vernicianti su base mondiale (8,31 kg/persona) sarebbe determinante impiegare delle fonti rinnovabili per garantirne una produzione sostenibile, diminuendo l’inquinamento, ritardando l’esaurimento del petrolio e riducendo le emissioni di CO2 e di conseguenza l’effetto serra ed il cambiamento climatico. Sono state trattate, quindi, alcune vie di sintesi “green” di leganti poliuretanici ed epossidici per prodotti vernicianti ad elevate prestazioni. Gli oli vegetali sono stati scelti come materie prime in quanto relativamente economici e disponibili in grandi quantità, risultando adatti per produzioni su scala industriale. Sono inoltre riportati i metodi di formulazione di uno smalto opaco bio-based per esterni (ad es. infissi e staccionate) e una vernice opaca per parquet (interni). Le formulazioni sperimentali sono state poi caratterizzate e confrontate con altri prodotti fossil-based presenti in commercio. I prodotti vernicianti sono stati sottoposti a test di brillantezza (gloss), adesione, presa di sporco, durezza, resistenza all’abrasione e resistenza chimica.
Resumo:
A fianco ai metodi più tradizionali, fin ora utilizzati, le tecnologie additive hanno subito negli ultimi anni una notevole evoluzione nella produzione di componenti. Esse permettono un ampio di range di applicazioni utilizzando materiali differenti in base al settore di applicazione. In particolare, la stampa 3D FDM (Fused Deposition Modeling) rappresenta uno dei processi tecnologici additivi più diffusi ed economicamente più competitivi. Gli attuali metodi di analisi agli elementi finiti (FEM) e le tecnologie CAE (Computer-Aided Engineering) non sono in grado di studiare modelli 3D di componenti stampati, dal momento che il risultato finale dipende dai parametri di processo e ambientali. Per questo motivo, è necessario uno studio approfondito della meso struttura del componente stampato per estendere l’analisi FEM anche a questa tipologia di componenti. Lo scopo del lavoro proposto è di creare un elemento omogeneo che rappresenti accuratamente il comportamento di un componente realizzato in stampa 3D FDM, questo avviene attraverso la definizione e l’analisi di un volume rappresentativo (RVE). Attraverso la tecnica dell’omogeneizzazione, il volume definito riassume le principali caratteristiche meccaniche della struttura stampata, permettendo nuove analisi e ottimizzazioni. Questo approccio permette di realizzare delle analisi FEM sui componenti da stampare e di predire le proprietà meccaniche dei componenti a partire da determinati parametri di stampa, permettendo così alla tecnologia FDM di diventare sempre di più uno dei principali processi industriali a basso costo.
Resumo:
L'elaborato intende proporre una narrazione dei cambiamenti concorsi in questi ultimi anni pandemici nel settore eventistico e festivaliero cinematografico, delineandone l’attuale panorama con lo scopo di tracciare le linee guida per il modello-festival del futuro. Si tratta di una indagine volta sia a documentare le scelte fatte dai festival (obbligate o meno che siano), sia a porre delle basi utili ad esaudire quell’urgenza di rinnovare i modi ed i metodi organizzativi di tali eventi, che come altri si sono dovuti adattare ad esigenze particolarmente stringenti, inesorabili e rapide. Il testo propone, quindi, uno studio storico di queste manifestazioni, concentrandosi sulle loro origini e significati, tale da intercettare quelle fondamenta che ancora oggi sono valide ed esistenti, fortemente radicate. Successivamente ci si concentrerà sui metodi di progettazione e management in uso nell'era pre-Covid, per poi passare al vaglio degli accadimenti emergenziali. Da qui si entrerà più nello specifico andando ad indagare le esperienze e le questioni legate alle “Covid-Edition” dei festival. Si esploreranno i rivoluzionamenti subiti ed attuati, individuando le più significative e principali mutazioni che si potrebbero rivelare come quelle evoluzioni indispensabili e vantaggiose per l’organizzazione e il successo degli eventi di oggi e domani. Toccheremo alcune delle più discusse tematiche odierne, approfondendole, valutandone gli effettivi impatti ed evidenziandone i risvolti positivi. Si includerà un confronto di analisi sui risultati delle ricerche di settore “Effetto Festival: festival e consumi culturali ai tempi del Covid-19” e “Piattaforma festival. Indagine sul futuro degli eventi di cinema”, con lo scopo di evidenziare ulteriormente i vantaggi ottenuti nel 2020. Concluderò la trattazione con l’ipotesi della nuova pratica festivaliera, modello e spunto di riflessione su una progettualità applicabile agli eventi festivalieri di oggi e del futuro.
Resumo:
Agricultural techniques have been improved over the centuries to match with the growing demand of an increase in global population. Farming applications are facing new challenges to satisfy global needs and the recent technology advancements in terms of robotic platforms can be exploited. As the orchard management is one of the most challenging applications because of its tree structure and the required interaction with the environment, it was targeted also by the University of Bologna research group to provide a customized solution addressing new concept for agricultural vehicles. The result of this research has blossomed into a new lightweight tracked vehicle capable of performing autonomous navigation both in the open-filed scenario and while travelling inside orchards for what has been called in-row navigation. The mechanical design concept, together with customized software implementation has been detailed to highlight the strengths of the platform and some further improvements envisioned to improve the overall performances. Static stability testing has proved that the vehicle can withstand steep slopes scenarios. Some improvements have also been investigated to refine the estimation of the slippage that occurs during turning maneuvers and that is typical of skid-steering tracked vehicles. The software architecture has been implemented using the Robot Operating System (ROS) framework, so to exploit community available packages related to common and basic functions, such as sensor interfaces, while allowing dedicated custom implementation of the navigation algorithm developed. Real-world testing inside the university’s experimental orchards have proven the robustness and stability of the solution with more than 800 hours of fieldwork. The vehicle has also enabled a wide range of autonomous tasks such as spraying, mowing, and on-the-field data collection capabilities. The latter can be exploited to automatically estimate relevant orchard properties such as fruit counting and sizing, canopy properties estimation, and autonomous fruit harvesting with post-harvesting estimations.
Resumo:
L’incidenza di patologie cardiovascolari come ipertensione e aterosclerosi è in progressivo aumento nel mondo, sia a causa del maggiore sviluppo di fattori di rischio quali obesità, sedentarietà e diabete, dovuti al tenore di vita che caratterizza la popolazione, specialmente quella risiedente in paesi sviluppati e con un alto tenore di vita, sia a causa dell’aumento dell’aspettativa di vita. Sembra quindi possibile considerare la complianza arteriosa totale e, in particolare, la complianza del primo tratto di aorta come un importante indice per la prevenzione e la valutazione del rischio della patologia arteriosa. La valutazione di questo parametro è però difficile da effettuare in vivo, motivo per cui diversi metodi sono stati sviluppati, alcuni basati sul modello Windkessel a due elementi, modello della circolazione sistemica proposto per la prima volta da Otto Frank nel 1899, altri su quello a tre. I primi risultano più accurati dei secondi. Tra i metodi di stima della complianza arteriosa totale ve ne è uno, il Pulse Pressure Method (PPM), ovvero metodo della pressione differenziale che, introdotto per la prima volta da Stergiopulos nel 1994, si è dimostrato essere tanto semplice quanto accurato. Questo consiste nel trovare il miglior valore di complianza che minimizzi, dopo opportune iterazioni, l’errore tra la pressione differenziale misurata, e quella calcolata in uscita da un modello Windkessel a due elementi. I vantaggi nell’uso di questo metodo non sono pochi: esso infatti non richiede flusso nullo in aorta ed è perciò applicabile in qualsiasi punto dell’albero arterioso, fornisce il valore della complianza alla pressione media Pm e necessita della sola conoscenza della pressione differenziale aortica e del flusso aortico, ottenibili non invasivamente. Studiando i risultati ottenuti, infine, si è visto come l’aorta prossimale, ovvero il tratto di aorta ascendente e l’arco aortico, sia il principale determinante della complianza arteriosa totale.
Resumo:
Lo studio si basa sull’analisi di campioni di neve superficiale (0-3 cm) e sub-superficiale (3-6 cm) raccolti nei pressi della “clean area” di Concordia Station, nel plateau Antartico, e di campioni di deposizione raccolti a seguito di eventi di precipitazione nello stesso sito. Il sito di campionamento “clean area” è designato allo studio dei valori di fondo nel plateau antartico, poiché ritenuto privo di contaminazione antropica. L’obiettivo è la quantificazione delle concentrazioni in ultra-tracce di mercurio per lo studio di eventuali patterns relativi al ciclo geochimico dell’elemento nei periodi interessati da radiazione solare. Inoltre, per studiare i processi che controllano il ciclo del mercurio nel plateau Antartico sono stati considerati sia i parametri meteorologici che le variazioni di elementi chimici usati per tracciare le possibili sorgenti emissive ed i meccanismi di scambio che avvengono per il mercurio all’interfaccia aria-neve. Le analisi sono state svolte con ICP-SFMS, una tecnica di spettrometria in grado di rilevare concentrazioni nell’ordine del ppt. A causa dei limiti di rilevazione molto bassi, tutte le provette usate per le analisi e la conservazione dei campioni sono state trattate al fine di minimizzare la contaminazione. I campioni destinati alle analisi di mercurio sono stati trattati con acido, seguendo la procedura per la stabilizzazione di metalli volatili. Il lavoro svolto non ha identificato particolari processi di trasporto e di scambio mentre invece riporta episodi di contaminazione della “clean area” dovuti in parte alla non usuale provenienza del vento ed in parte al crescente impatto antropico dovuto alle attività delle stazioni di ricerca. Lo studio ha messo in luce le problematiche legate al possibile impatto della base di ricerca Concordia Station sui processi naturali evidenziando la necessità di ulteriori studi e approfondimenti sul tema della contaminazione della designata “area pulita” per il campionamento di neve.
Resumo:
Le galassie sono strutture che popolano l'universo e i primi studi riguardanti la loro formazione e composizione risalgono a qualche secolo fa. Nella seguente trattazione si illustreranno i principali metodi di classificazione in base alla configurazione morfologica oppure rispetto ad altre proprietà caratteristiche. Al fine di comprendere al meglio i modelli teorici in grado di dare una spiegazione su come si siano originate le galassie, si esporranno le fasi fondamentali dell'evoluzione dell'universo e le proprietà della materia oscura. Infine ci si soffermerà su un particolare modello di formazione e sull'influenza che può avere riguardo ai buchi neri all'interno delle galassie.
Resumo:
La giunzione miotendinea (MTJ) è una struttura anatomica specializzata che collega il muscolo al tendine. La sua funzione è quella di permettere la trasmissione della forza generata dal muscolo al tendine, permettendo il movimento. Essendo una struttura di interfaccia che funge da raccordo tra due tipi di tessuti molto differenti, tende a risentire di una forte concentrazione di tensione, questo la rende fortemente suscettibile a rottura. Le tecniche ad oggi utilizzare per riparare lesioni alla MTJ risultano inadatte ad una completa ed ottimale ripresa meccanica. Al fine di trovare una soluzione a questo problema, l’ingegneria tissutale sta lavorando alla fabbricazione di strutture tridimensionali che siano in grado di imitare al meglio la struttura nativa della MTJ. Le tecniche utilizzate per la produzione di tali strutture sono, principalmente, stampa 3D ed elettrofilatura. Il vantaggio di queste tecniche è la loro elevata risoluzione, che permette di controllare finemente l’architettura di tali strutture artificiali. Nella seguente tesi verrà presentato lo stato dell’arte sulle tecniche utilizzate per la fabbricazione di scaffolds per la rigenerazione della MTJ, soffermandosi in particolare sui metodi di fabbricazione e sulle prestazioni morfologiche, meccaniche e cellulari effettuando un confronto tra i diversi studi che se ne sono occupati, individuandone punti di forza, debolezze e possibili studi futuri che potranno essere effettuati su tali scaffolds. In questo modo, sarà possibile rendersi conto di quale di queste tecniche risulti essere più promettente per il futuro.