996 resultados para Analisi modale, risonanza, strutture, cavità, PYTHON, ANSYS


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questo studio, che è stato realizzato in collaborazione con Hera, è un'analisi della gestione dei rifiuti a Bologna. La ricerca è stata effettuata su diversi livelli: un livello strategico il cui scopo è quello di identificare nuovi metodi per la raccolta dei rifiuti in funzione delle caratteristiche del territorio della città, un livello analitico che riguarda il miglioramento delle applicazioni informatiche di supporto, e livello ambientale che riguarda il calcolo delle emissioni in atmosfera di veicoli adibiti alla raccolta e al trasporto dei rifiuti. innanzitutto è stato necessario studiare Bologna e lo stato attuale dei servizi di raccolta dei rifiuti. È incrociando questi componenti che in questi ultimi tre anni sono state effettuate modifiche nel settore della gestione dei rifiuti. I capitoli seguenti sono inerenti le applicazioni informatiche a sostegno di tali attività: Siget e Optit. Siget è il programma di gestione del servizio, che attualmente viene utilizzato per tutte le attività connesse alla raccolta di rifiuti. È un programma costituito da moduli diversi, ma di sola la gestione dati. la sperimentazione con Optit ha aggiunto alla gestione dei dati la possibilità di avere tali dati in cartografia e di associare un algoritmo di routing. I dati archiviati in Siget hanno rappresentato il punto di partenza, l'input, e il raggiungimento di tutti punti raccolta l'obiettivo finale. L'ultimo capitolo è relativo allo studio dell'impatto ambientale di questi percorsi di raccolta dei rifiuti. Tale analisi, basata sulla valutazione empirica e sull'implementazione in Excel delle formule del Corinair mostra la fotografia del servizio nel 2010. Su questo aspetto Optit ha fornito il suo valore aggiunto, implementando nell'algoritmo anche le formule per il calcolo delle emissioni.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Obiettivo: Valutare l’accuratezza reciproca dell’ecografia “esperta” e della risonanza magnetica nelle diagnosi prenatale delle anomalie congenite. Materiali e metodi: Sono stati retrospettivamente valutati tutti i casi di malformazioni fetali sottoposte a ecografia “esperta” e risonanza magnetica nel nostro Policlinico da Ottobre 2001 a Ottobre 2012. L’età gestazionale media all’ecografia e alla risonanza magnetica sono state rispettivamente di 28 e 30 settimane. La diagnosi ecografica è stata confrontata con la risonanza e quindi con la diagnosi postnatale. Risultati: sono stati selezionati 383 casi, con diagnosi ecografica o sospetta malformazione fetale “complessa” o anamnesi ostetrica positiva infezioni prenatali, valutati con ecografia “esperta”, risonanza magnetica e completi di follow up. La popolazione di studio include: 196 anomalie del sistema nervoso centrale (51,2%), 73 difetti toracici (19,1%), 20 anomalie dell’area viso-collo (5,2%), 29 malformazioni del tratto gastrointestinale (7,6%), 37 difetti genito-urinari (9,7%) e 28 casi con altra indicazione (7,3%). Una concordanza tra ecografia, risonanza e diagnosi postnatale è stata osservata in 289 casi (75,5%) ed è stata maggiore per le anomalie del sistema nervoso centrale 156/196 casi (79,6%) rispetto ai difetti congeniti degli altri distretti anatomici 133/187 (71,1%). La risonanza ha aggiunto importanti informazioni diagnostiche in 42 casi (11%): 21 anomalie del sistema nervoso centrale, 2 difetti dell’area viso collo, 7 malformazioni toraciche, 6 anomalie del tratto gastrointestinale, 5 dell’apparato genitourinario e 1 caso di sospetta emivertebra lombare. L’ecografia è stata più accurata della risonanza in 15 casi (3,9%). In 37 casi (9,7%) entrambe le tecniche hanno dato esito diverso rispetto agli accertamenti postnatali. Conclusioni: l’ecografia prenatale rimane a tutt’oggi la principale metodica di imaging fetale. In alcuni casi complessi e/o dubbi sia del sistema nervoso centrale sia degli altri distretti anatomici la risonanza può aggiungere informazioni rilevanti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il lavoro riguarda la caratterizzazione fluidodinamica di un reattore agitato meccanicamente utilizzato per la produzione di biogas. Lo studio è stato possibile attraverso l’impiego della PIV (Particle Image Velocimetry), tecnica di diagnostica ottica non invasiva adatta a fornire misure quantitative dei campi di velocità delle fasi all’interno del reattore. La caratterizzazione è stata preceduta da una fase di messa a punto della tecnica, in modo da definire principalmente l’influenza dello spessore del fascio laser e dell’intervallo di tempo tra gli impulsi laser sui campi di moto ottenuti. In seguito, il reattore è stato esaminato in due configurazioni: con albero in posizione centrata e con albero in posizione eccentrica. Entrambe le geometrie sono state inoltre analizzate in condizione monofase e solido-liquido. Le prove in monofase con albero centrato hanno permesso di identificare un particolare regime transitorio del fluido nei primi minuti dopo la messa in funzione del sistema di agitazione, caratterizzato da una buona efficienza di miscelazione in tutta la sezione di analisi. In condizioni di regime stazionario, dopo circa 1 ora di agitazione, è stato invece osservato che il fluido nella zona vicino alla parete è essenzialmente stagnante. Sempre con albero centrato, le acquisizioni in condizione bifase hanno permesso di osservare la forte influenza che la presenza di particelle di solido ha sui campi di moto della fase liquida. Per l’assetto con albero in posizione eccentrica, in condizione monofase e regime di moto stazionario, è stata evidenziata una significativa influenza del livello di liquido all’interno del reattore sui campi di moto ottenuti: aumentando il livello scalato rispetto a quello usato nella pratica industriale è stato osservato un miglioramento dell’efficienza di miscelazione grazie al maggior lavoro svolto dal sistema di agitazione. In questa configurazione, inoltre, è stato effettuato un confronto tra i campi di moto indotti da due tipologie di giranti aventi stesso diametro, ma diversa geometria. Passando alla condizione bifase con albero eccentrico, i risultati hanno evidenziato la forte asimmetria del reattore: è stato evidenziato, infatti, come il sistema raggiunga regimi stazionari differenti a seconda delle velocità di rotazione e delle condizioni adottate per il raggiungimento della stabilità. Grazie alle prove su piani orizzontali del reattore in configurazione eccentrica e condizioni bifase, è stato concluso che i sistemi in uso inducano un campo di moto prettamente tangenziale, non ottimizzato però per la sospensione della fase solida necessaria in questa tipologia di processi.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il pomodoro è una delle colture principali del panorama agro-alimentare italiano e rappresenta un ingrediente base della tradizione culinaria nazionale. Il pomodoro lavorato dall’industria conserviera può essere trasformato in diverse tipologie merceologiche, che si differenziano in base alla tecniche di lavorazione impiegate ed alle caratteristiche del prodotto finito. la percentuale di spesa totale destinata all’acquisto di cibo fuori casa è in aumento a livello globale e l’interesse dell’industria alimentare nei confronti di questo canale di vendita è quindi crescente. Mentre sono numerose le indagine in letteratura che studiano i processi di acquisto dei consumatori finali, non ci sono evidenze di studi simili condotti sugli operatori del Food Service. Obiettivo principale della ricerca è quello di valutare le preferenze dei responsabili acquisti del settore Food Service per diverse tipologie di pomodoro trasformato, in relazione ad una gamma di attributi rilevanti del prodotto e di caratteristiche del cliente. La raccolta dei dati è avvenuta attraverso un esperimento di scelta ipotetico realizzato in Italia e alcuni mercati esteri. Dai risultati ottenuti dall’indagine emerge che i Pelati sono la categoria di pomodoro trasformato preferita dai responsabili degli acquisti del settore Food Service intervistati, con il 35% delle preferenze dichiarate nell'insieme dei contesti di scelta proposti, seguita dalla Polpa (25%), dalla Passata (20%) e dal Concentrato (15%). Dai risultati ottenuti dalla stima del modello econometrico Logit a parametri randomizzati è emerso che alcuni attributi qualitativi di fiducia (credence), spesso impiegati nelle strategie di differenziazione e posizionamento da parte dell’industria alimentare nel mercato Retail, possono rivestire un ruolo importante anche nell’influenzare le preferenze degli operatori del Food Service. Questo potrebbe quindi essere un interessante filone di ricerca da sviluppare nel futuro, possibilmente con l'impiego congiunto di metodologie di analisi basate su esperimenti di scelta ipotetici e non ipotetici.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

I moderni motori a combustione interna diventano sempre più complessi L'introduzione della normativa antinquinamento EURO VI richiederà una significativa riduzione degli inquinanti allo scarico. La maggiore criticità è rappresentata dalla riduzione degli NOx per i motori Diesel da aggiungersi a quelle già in vigore con le precedenti normative. Tipicamente la messa a punto di una nuova motorizzazione prevede una serie di test specifici al banco prova. Il numero sempre maggiore di parametri di controllo della combustione, sorti come conseguenza della maggior complessità meccanica del motore stesso, causa un aumento esponenziale delle prove da eseguire per caratterizzare l'intero sistema. L'obiettivo di questo progetto di dottorato è quello di realizzare un sistema di analisi della combustione in tempo reale in cui siano implementati diversi algoritmi non ancora presenti nelle centraline moderne. Tutto questo facendo particolare attenzione alla scelta dell'hardware su cui implementare gli algoritmi di analisi. Creando una piattaforma di Rapid Control Prototyping (RCP) che sfrutti la maggior parte dei sensori presenti in vettura di serie; che sia in grado di abbreviare i tempi e i costi della sperimentazione sui motopropulsori, riducendo la necessità di effettuare analisi a posteriori, su dati precedentemente acquisiti, a fronte di una maggior quantità di calcoli effettuati in tempo reale. La soluzione proposta garantisce l'aggiornabilità, la possibilità di mantenere al massimo livello tecnologico la piattaforma di calcolo, allontanandone l'obsolescenza e i costi di sostituzione. Questa proprietà si traduce nella necessità di mantenere la compatibilità tra hardware e software di generazioni differenti, rendendo possibile la sostituzione di quei componenti che limitano le prestazioni senza riprogettare il software.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introduzione alle strategie di robotic patrolling e analisi delle stesse. Applicazione ad uno scenario di una strategia e realizzazione di un robot patroller.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La malattia da reflusso gastroesofageo (GERD) si divide in due categorie: malattia non erosiva (NERD) ed erosiva (ERD). Questi due fenotipi di GERD mostrano caratteristiche patofisiologiche e cliniche differenti. NERD è la forma più comune. Anche se ERD e NERD sono difficili da distinguere a livello clinico, la forma NERD possiede caratteristiche fisiologiche, patofisiologiche, anatomiche, e istologiche uniche. La replicazione cellulare dello strato basale si pensa sia una delle cause implicate nella resistenza della mucosa e nella difesa strutturale dell’epitelio. Diversi studi hanno dimostrato che la proliferazione cellulare è ridotta nella mucosa esofagea esposta ad insulti acidi e peptici cronici, in pazienti GERD, in più uno studio recente ha dimostrato che il recettore per i cannabinoidi CB1 era implicato nella riparazione delle ferite nella mucosa del colon. Sulla base di questi dati abbiamo valutato la presenza del recettore CB1 in biopsie della mucosa esofagea, di pazienti ERD, NERD e di controlli sani, tramite analisi Western Blot, Immunoistochimica e Real-Time PCR, dimostrando per la prima volta la presenza di questo recettore nell’epitelio dell’esofago e una riduzione dei suoi livelli di espressione nei pazienti ERD, camparati con i NERD e con i controlli sani. Successivamente, per chiarire meglio i meccanismi molecolari che caratterizzano ERD e NERD, abbiamo effettuato un analisi proteomica con la tecnica shotgun, la quale ha evidenziato un patter proteico di 33 proteine differenzialmente espresse in pazienti NERD vs ERD, sette delle quali confermate in wester Blot, e quattro in immunoistochimica. Concludendo i nostri risultati hanno confermato che ERD e NERD sono due entità distinte a livello proteico, e hanno proposto dei candidati biomarker per la diagnosi differenziale di ERD e NERD.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questo lavoro di Tesi Magistrale, si focalizza sulla più importante delle aritmie atriali, ovvero la Fibrillazione Atriale, e sul trattamento della stessa attraverso le procedure di ablazione a radio frequenza (RF). Il lavoro di tesi, svolto presso l'Ospedale 'M. Bufalini' di Cesena, affronta in particolare l'uso della tecnologia EnSite NavX (un sistema di mappaggio elettroanatomico delle cavità cardiache) ed EnSite Contact (un sistema basato sulla misura dell'impedenza locale per la valutazione del contatto elettrodo tessuto). L'acquisizione e l'analisi dei dati di ECI (indice di accoppiamento elettrico), forniti dal modulo Contact, hanno permesso di comprendere come questo parametro, derivato dalla misura dell'impedenza locale, possa contribuire a fornire importanti informazioni in real-time all'elettrofisiologo e come lo studio della sua dinamica, con particolare attenzione alle variazioni tra pre e post ablazione, possa risultare utile per verificare l'avvenuta erogazione di energia ai tessuti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Scopo del presente lavoro di tesi è lo studio dei processi di fotogenerazione e trasporto di carica in film sottili di Rubrene trasferiti su substrati differenti, attraverso un’analisi degli spettri di fotocorrente ottenuti in laboratorio. I cristalli sono studiati realizzando contatti ohmici mediante deposito di vapori di oro sul campione. Le prestazioni ottenute variano a seconda del substrato; i segnali di fotocorrente migliori derivano dai campioni su vetro. L’andamento qualitativo è il medesimo al variare dei cristalli, così come i valori di energia dei fotoni incidenti corrispondenti ai picchi massimi del segnale. Si evidenziano tuttavia distribuzioni di difetti leggermente differenti. Nell’analisi comparata tra gli spettri di assorbimento e fotocorrente si riscontra un comportamento antibatico; vari tentativi di simulazione e applicazione dei modelli finora noti in letteratura per i cristalli organici (sebbene non ve ne siano per i film sottili di Rubrene), mostrano la completa inapplicabilità degli stessi al presente caso di studio evidenziando la necessità di modelli teorici specificamente studiati per la nanoscala. Una ragionevole motivazione di tale scontro risiede proprio nel conflitto tra gli ordini di grandezza dei parametri delle strutture in esame e le leggi sulle quali si basano le analisi proposte in letteratura, incongruenza che non appare invece su scala micrometrica, ove tali modelli sono stati sviluppati.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

E' stato considerato un High-Dislocation Density Light Emitting Diode (HDD LED)ed è stato analizzato l'andamento di corrente a varie temperature. Dai risultati ottenuti è stato possibile ricavare il coefficiente di Poole-Frenkel, e da esso risalire alla densità di dislocazioni del dispositivo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questo lavoro di tesi sono stati analizzati tre progetti educativi proposti a livello della scuola superiore in cui si è posta l'attenzione sull'educazione alla sostenibilità, inserendola però in un contesto più vasto di educazione scientifica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nella presente tesi è proposta una metodologia per lo studio e la valutazione del comportamento sismico di edifici a telaio. Il metodo prevede la realizzazione di analisi non-lineari su modelli equivalenti MDOF tipo stick, in accordo alla classificazione data nel report FEMA 440. Gli step per l’applicazione del metodo sono descritti nella tesi. Per la validazione della metodologia si sono utilizzati confronti con analisi time-history condotte su modelli tridimensionali dettagliati delle strutture studiate (detailed model). I parametri ingegneristici considerati nel confronto, nell’ottica di utilizzare il metodo proposto in un approccio del tipo Displacement-Based Design sono lo spostamento globale in sommità, gli spostamenti di interpiano, le forze di piano e la forza totale alla base. I risultati delle analisi condotte sui modelli stick equivalenti, mostrano una buona corrispondenza, ottima in certi casi, con quelli delle analisi condotte sui modelli tridimensionali dettagliati. Le time-history realizzate sugli stick model permettono però, un consistente risparmio in termini di onere computazionale e di tempo per il post-processing dei risultati ottenuti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

uesto progetto di tesi ha come obiettivo la creazione di una applicazio- ne mobile collaborativa per il monitoraggio e l’analisi dei viaggi ferroviari. Collaborativa perché per poter adempiere alla sua funzione è necessario che i suoi utilizzatori partecipino attivamente all’accrescimento del database di dati, supponendo che con più dati raccolti sia maggiore l’accuratezza di que- st’ultimi. Sarà un’applicazione di monitoraggio nel senso che di ogni singolo treno verranno presi in esame una serie di aspetti considerati utili ai fini della valutazione della qualità del servizio offerto. Analisi perché, una volta raccolti, questi dati possono essere utilizzati sia da coloro che viaggiano in treno -per decidere se prendere un treno piuttosto che un altro- sia da coloro che gestiscono la rete in modo da stilare delle statistiche o per eseguire degli interventi mirati su di una specifica tratta o anche per potenziare il servizio clienti a bordo del treno.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’idea alla base della tesi è quella di sfruttare l’espressività di rappresentazione grafica della libreria D3 per mettere a punto un’applicazione web che dia la possibilità all’utente di creare dei grafici interattivi in maniera semplice e automatica. A tal proposito, si è subito considerato il dominio dell’applicazione, rappresentato dai dati da visualizzare in forma grafica, in modo da sviluppare un prodotto che, a differenza degli altri generatori di grafici, permetta l’elaborazione dei dataset reali, quelli cioè pubblicati sul web dai vari enti specializzati; un’applicazione che quindi indipendentemente dalla forma in cui i dati si presentano, riesca a rappresentarne il contenuto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'innovazione delle tecnologie di sequenziamento negli ultimi anni ha reso possibile la catalogazione delle varianti genetiche nei campioni umani, portando nuove scoperte e comprensioni nella ricerca medica, farmaceutica, dell'evoluzione e negli studi sulla popolazione. La quantità di sequenze prodotta è molto cospicua, e per giungere all'identificazione delle varianti sono necessari diversi stadi di elaborazione delle informazioni genetiche in cui, ad ogni passo, vengono generate ulteriori informazioni. Insieme a questa immensa accumulazione di dati, è nata la necessità da parte della comunità scientifica di organizzare i dati in repository, dapprima solo per condividere i risultati delle ricerche, poi per permettere studi statistici direttamente sui dati genetici. Gli studi su larga scala coinvolgono quantità di dati nell'ordine dei petabyte, il cui mantenimento continua a rappresentare una sfida per le infrastrutture. Per la varietà e la quantità di dati prodotti, i database giocano un ruolo di primaria importanza in questa sfida. Modelli e organizzazione dei dati in questo campo possono fare la differenza non soltanto per la scalabilità, ma anche e soprattutto per la predisposizione al data mining. Infatti, la memorizzazione di questi dati in file con formati quasi-standard, la dimensione di questi file, e i requisiti computazionali richiesti, rendono difficile la scrittura di software di analisi efficienti e scoraggiano studi su larga scala e su dati eterogenei. Prima di progettare il database si è perciò studiata l’evoluzione, negli ultimi vent’anni, dei formati quasi-standard per i flat file biologici, contenenti metadati eterogenei e sequenze nucleotidiche vere e proprie, con record privi di relazioni strutturali. Recentemente questa evoluzione è culminata nell’utilizzo dello standard XML, ma i flat file delimitati continuano a essere gli standard più supportati da tools e piattaforme online. È seguita poi un’analisi dell’organizzazione interna dei dati per i database biologici pubblici. Queste basi di dati contengono geni, varianti genetiche, strutture proteiche, ontologie fenotipiche, relazioni tra malattie e geni, relazioni tra farmaci e geni. Tra i database pubblici studiati rientrano OMIM, Entrez, KEGG, UniProt, GO. L'obiettivo principale nello studio e nella modellazione del database genetico è stato quello di strutturare i dati in modo da integrare insieme i dati eterogenei prodotti e rendere computazionalmente possibili i processi di data mining. La scelta di tecnologia Hadoop/MapReduce risulta in questo caso particolarmente incisiva, per la scalabilità garantita e per l’efficienza nelle analisi statistiche più complesse e parallele, come quelle riguardanti le varianti alleliche multi-locus.