47 resultados para Compattazione intelligente modulo vibratorio sito Altopascio, Bomag


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In 'Involutory reflection groups and their models' (F. Caselli, 2010), a uniform Gelfand model is constructed for all complex reflection groups G(r,p,n) satisfying GCD(p,n)=1,2 and for all their quotients modulo a scalar subgroup. The present work provides a refinement for this model. The final decomposition obtained is compatible with the Robinson-Schensted generalized correspondence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’evoluzione dei sensori multispettrali e la prospettiva di sviluppo dei sensori iperspettrali nel campo del telerilevamento ottico offrono nuovi strumenti per l’indagine del territorio e rinnovano la necessità di ridefinire potenzialità, limiti e accuratezza delle metodologie tradizionali. Nel caso delle immagini iperspettrali, in particolare, l’elevatissima risoluzione spettrale apre nuove possibilità di sviluppo di modelli fisicamente basati per correlare grandezze radiometriche con indicatori fisico-chimici caratteristici delle superfici osservate, a prezzo però di maggiori oneri nella gestione del dato. Il presente lavoro mira appunto ad esaminare, per alcune applicazioni di carattere ambientale e attraverso casi di studio specifici, le criticità del problema del rilevamento da remoto nel suo complesso: dai problemi di correzione radiometrica delle immagini, all'acquisizione di dati di calibrazione sul campo, infine all'estrazione delle informazioni di interesse dal dato telerilevato. A tal fine sono stati sperimentati diversi modelli di trasferimento radiativo ed è stata sviluppata un’interfaccia per la gestione del modello 6SV. Per quest’ultimo sono state inoltre sviluppate routine specifiche per il supporto dei sensori Hyperion e World View 2. La ricerca svolta intende quindi offrire un contributo alla definizione di procedure operative ripetibili, per alcune applicazioni intimamente connesse all’indagine conoscitiva ed al monitoraggio dei processi in atto sul territorio. Nello specifico, si è scelto il caso di studio dell’oasi del Fayyum, in Egitto, per valutare il contenuto informativo delle immagini satellitari sotto tre diversi profili, soltanto in apparenza distinti: la classificazione della litologia superficiale, la valutazione dello stato di qualità delle acque ed il monitoraggio delle opere di bonifica. Trattandosi di un’oasi, le aree coltivate del Fayyum sono circondate dai suoli aridi del deserto libico. La mancanza di copertura vegetale rappresenta una condizione privilegiata per l’osservazione della litologia superficiale da remoto, auspicabile anche per la scarsa accessibilità di alcune aree. Il fabbisogno idrico dell’oasi è garantito dall’apporto di acque del fiume Nilo attraverso una rete di irrigazione che ha, come recettore finale, il lago Qarun, situato nella porzione più depressa dell’oasi. Questo lago, privo di emissari, soffre enormi problemi di salinizzazione, visto il clima iper-arido in cui si trova, e di inquinamento da fertilizzanti agricoli. Il problema della sostenibilità ambientale dello sfruttamento agricolo intensivo dell’oasi è un problema di deterioramento della qualità dell’acqua e della qualità dei suoli. È un problema che richiede una adeguata conoscenza del contesto geologico in cui questi terreni sono inseriti ed una capacità di monitoraggio degli interventi di bonifica ed estensione delle coltivazioni in atto; entrambe conoscenze necessarie alla definizione di un piano di sviluppo economico sostenibile. Con l’intento di contribuire ad una valutazione delle effettive potenzialità del telerilevamento come strumento di informazione territoriale, sono state sperimentate tecniche di classificazione di immagini multispettrali ASTER ed iperspettrali Hyperion di archivio per discriminare la litologia superficiale sulle aree adiacenti al lago Qarun nell’oasi del Fayyum. Le stesse immagini Hyperion di archivio più altre appositamente acquisite sono state utilizzate, assieme ad immagini multispettrali ALI, per la valutazione qualitativa e quantitativa di parametri di qualità delle acque, attraverso l’applicazione di modelli empirici di correlazione. Infine, per valutare l’ipotesi che il deterioramento della qualità delle acque possa essere correlato ai processi di bonifica ed estensione delle coltivazioni in atto negli ultimi decenni, le immagini dell’archivio Landsat sono state utilizzate per analisi di change detection. Per quanto riguarda il problema della validazione dei risultati, si è fatto uso di alcuni dati di verità a terra acquisiti nel corso di un survey preliminare effettuato nell’Ottobre 2010. I campioni di roccia prelevati e le misure di conducibilità elettrica delle acque del lago, benché in numero estremamente limitato per la brevità della missione e le ovvie difficoltà logistiche, consentono alcune valutazioni preliminari sui prodotti ottenuti dalle elaborazioni. Sui campioni di roccia e sabbie sciolte, in particolare, sono state effettuate misure di riflettività in laboratorio ed analisi mineralogiche dettagliate. Per la valutazione della qualità delle acque, più precisamente delle concentrazioni di clorofilla, la metodologia utilizzata per il caso di studio egiziano è stata applicata anche sul tratto costiero adriatico antistante le foci dei fiumi Tronto e Salinello. In questo sito sono state effettuate misure in situ di conducibilità elettrica ed il prelievo di campioni di acqua per la determinazione in laboratorio delle concentrazioni di clorofilla. I risultati ottenuti hanno evidenziato le potenzialità offerte dall’informazione spettrale contenuta nelle immagini satellitari e consentono l’individuazione di alcune pratiche operative. D’altro canto hanno anche messo in luce le carenze dei modelli attualmente esistenti, nonché le criticità legate alla correzione atmosferica delle grandezze radiometriche rilevate.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gli impianti di incenerimento di rifiuti solidi suscitano preoccupazione nella popolazione per i possibili effetti avversi associati all’esposizione. Gli effetti delle polveri sottili (PM2.5), generate dai processi di combustione, sulla salute umana includono l’insorgenza di patologie a carico del sistema respiratorio e cardiovascolare e l’aumento della mortalità per malattie polmonari e probabilmente cancro al polmone. Lo scopo della tesi è quello di valutare il profilo tossicologico e cancerogeno del particolato atmosferico in prossimità dell’inceneritore di Bologna rispetto alle aree adiacenti mediante l’utilizzo di test alternativi alle metodologie in vivo, come il test di trasformazione cellulare e approcci di tossicogenomica (soprattutto trascrittomica) oltre alla valutazione della variazione del rischio cancerogeno indotto dall’esposizione di PM2.5 in diversi siti (massima ricaduta, controllo, fondo urbano e fondo rurale) e in differenti periodi di campionamento (estate 2008 e inverno 2009). Gli estratti di PM2.5 relativi alla stagione invernale sono risultati più tossici rispetto ai campioni estivi, che inducono tossicità soprattutto alle alte dosi. Per i campioni invernali il numero medio di colonie di cellule BALB/c 3T3 A31-1-1 risulta ridotto in modo significativo anche per le dosi più basse saggiate indipendentemente dal sito di provenienza. Tutti i campioni analizzati sono risultati negativi nel test di trasformazione cellulare in vitro. L’analisi dell’espressione genica delle cellule BALB/c 3T3 A31-1-1, in seguito all’esposizione agli estratti di PM2.5, ha mostrato un effetto stagionale evidente. Relativamente ai campioni invernali è stato evidenziato un maggior effetto tossico da parte del sito di controllo rispetto alla massima ricaduta, poiché nel sito di controllo risultano attivati marcatori di morte cellulare per apoptosi. La valutazione del rischio cancerogeno in tutti i siti valutati non mostra situazioni preoccupanti legate alla predizione di eccessi di rischio di tumori imputabili all’attività dell’inceneritore in quanto le stime di rischio non eccedono mai il valore limite riportato in letteratura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La questione energetica ha assunto, negli ultimi anni, un ruolo centrale nel dibattito mondiale in relazione a quattro fattori principali: la non riproducibilità delle risorse naturali, l’aumento esponenziale dei consumi, gli interessi economici e la salvaguardia dell'equilibrio ambientale e climatico del nostro Pianeta. E’ necessario, dunque, cambiare il modello di produzione e consumo dell’energia soprattutto nelle città, dove si ha la massima concentrazione dei consumi energetici. Per queste ragioni, il ricorso alle Fonti Energetiche Rinnovabili (FER) si configura ormai come una misura necessaria, opportuna ed urgente anche nella pianificazione urbanistica. Per migliorare la prestazione energetica complessiva del sistema città bisogna implementare politiche di governo delle trasformazioni che escano da una logica operativa “edificio-centrica” e ricomprendano, oltre al singolo manufatto, le aggregazioni di manufatti e le loro relazioni/ interazioni in termini di input e output materico-energetiche. La sostituzione generalizzata del patrimonio edilizio esistente con nuovi edifici iper-tecnologici, è improponibile. In che modo quindi, è possibile ridefinire la normativa e la prassi urbanistica per generare tessuti edilizi energeticamente efficienti? La presente ricerca propone l’integrazione tra la nascente pianificazione energetica del territorio e le più consolidate norme urbanistiche, nella generazione di tessuti urbani “energy saving” che aggiungano alle prestazioni energetico-ambientali dei singoli manufatti quelle del contesto, in un bilancio energetico complessivo. Questo studio, dopo aver descritto e confrontato le principali FER oggi disponibili, suggerisce una metodologia per una valutazione preliminare del mix di tecnologie e di FER più adatto per ciascun sito configurato come “distretto energetico”. I risultati di tale processo forniscono gli elementi basilari per predisporre le azioni necessarie all’integrazione della materia energetica nei Piani Urbanistici attraverso l’applicazione dei principi della perequazione nella definizione di requisiti prestazionali alla scala insediativa, indispensabili per un corretto passaggio alla progettazione degli “oggetti” e dei “sistemi” urbani.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nell’attuale contesto, caratterizzato da un’elevata attenzione alla qualità e alla sicurezza degli alimenti e alle soluzioni tese a garantirli, l’implementazione di sistemi microelettronici per il controllo del prodotto attraverso supporti miniaturizzati e a basso costo può risultare un’opportunità strategica. Oggetto della ricerca di dottorato sono stati lo studio dell’utilizzo di sensori e strumentazione innovativi per la misurazione ed il controllo di parametri ambientali di conservazione di prodotti alimentari e per la loro identificazione mediante la tecnologia della radiofrequenza. Allo scopo è stato studiato il contesto in cui operano gli attori principali della filiera agroalimentare ed è stata sviluppata un’idea di etichetta progettata per essere in grado di emettere attivamente segnale di allarme in caso di necessità (etichetta RFID intelligente semi-passiva). Il prototipo di chip, realizzato in via sperimentale, è stato validato positivamente, sia come strumento di misura, sia in termini di prestazione nel caso studio del monitoraggio della conservazione di un prodotto alimentare in condizioni controllate di temperatura e radiazione luminosa. Le significative evidenze analitiche di reazioni di degradazione dello stato qualitativo del prodotto, quali analisi di pH e colore, raccolte durante il periodo di osservazione di 64 giorni, hanno trovato riscontro con le misure rilevate dal chip prototipo. I risultati invitano ad individuare un partner industriale, con il quale sperimentare l’applicazione della tecnologia proposta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In genere, negli studi di vocazionalità delle colture, vengono presi in considerazione solo variabili ambientali pedo-climatiche. La coltivazione di una coltura comporta anche un impatto ambientale derivante dalle pratiche agronomiche ed il territorio può essere più o meno sensibile a questi impatti in base alla sua vulnerabilità. In questo studio si vuole sviluppare una metodologia per relazionare spazialmente l’impatto delle colture con le caratteristiche sito specifiche del territorio in modo da considerare anche questo aspetto nell’allocazione negli studi di vocazionalità. LCA è stato utilizzato per quantificare diversi impatti di alcune colture erbacee alimentari e da energia, relazionati a mappe di vulnerabilità costruite con l’utilizzo di GIS, attraverso il calcolo di coefficienti di rischio di allocazione per ogni combinazione coltura-area vulnerabile. Le colture energetiche sono state considerate come un uso alternativo del suolo per diminuire l’impatto ambientale. Il caso studio ha mostrato che l’allocazione delle colture può essere diversa in base al tipo e al numero di impatti considerati. Il risultato sono delle mappe in cui sono riportate le distribuzioni ottimali delle colture al fine di minimizzare gli impatti, rispetto a mais e grano, due colture alimentari importanti nell’area di studio. Le colture con l’impatto più alto dovrebbero essere coltivate nelle aree a vulnerabilità bassa, e viceversa. Se il rischio ambientale è la priorità, mais, colza, grano, girasole, e sorgo da fibra dovrebbero essere coltivate solo nelle aree a vulnerabilità bassa o moderata, mentre, le colture energetiche erbacee perenni, come il panico, potrebbero essere coltivate anche nelle aree a vulnerabilità alta, rappresentando cosi una opportunità per aumentare la sostenibilità di uso del suolo rurale. Lo strumento LCA-GIS inoltre, integrato con mappe di uso attuale del suolo, può aiutare a valutarne il suo grado di sostenibilità ambientale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’invarianza spaziale dei parametri di un modello afflussi-deflussi può rivelarsi una soluzione pratica e valida nel caso si voglia stimare la disponibilità di risorsa idrica di un’area. La simulazione idrologica è infatti uno strumento molto adottato ma presenta alcune criticità legate soprattutto alla necessità di calibrare i parametri del modello. Se si opta per l’applicazione di modelli spazialmente distribuiti, utili perché in grado di rendere conto della variabilità spaziale dei fenomeni che concorrono alla formazione di deflusso, il problema è solitamente legato all’alto numero di parametri in gioco. Assumendo che alcuni di questi siano omogenei nello spazio, dunque presentino lo stesso valore sui diversi bacini, è possibile ridurre il numero complessivo dei parametri che necessitano della calibrazione. Si verifica su base statistica questa assunzione, ricorrendo alla stima dell’incertezza parametrica valutata per mezzo di un algoritmo MCMC. Si nota che le distribuzioni dei parametri risultano in diversa misura compatibili sui bacini considerati. Quando poi l’obiettivo è la stima della disponibilità di risorsa idrica di bacini non strumentati, l’ipotesi di invarianza dei parametri assume ancora più importanza; solitamente infatti si affronta questo problema ricorrendo a lunghe analisi di regionalizzazione dei parametri. In questa sede invece si propone una procedura di cross-calibrazione che viene realizzata adottando le informazioni provenienti dai bacini strumentati più simili al sito di interesse. Si vuole raggiungere cioè un giusto compromesso tra lo svantaggio derivante dall’assumere i parametri del modello costanti sui bacini strumentati e il beneficio legato all’introduzione, passo dopo passo, di nuove e importanti informazioni derivanti dai bacini strumentati coinvolti nell’analisi. I risultati dimostrano l’utilità della metodologia proposta; si vede infatti che, in fase di validazione sul bacino considerato non strumentato, è possibile raggiungere un buona concordanza tra le serie di portata simulate e osservate.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dissertazione è suddivisa in due capitoli più tre appendici. Nel I capitolo, Musica e dolore, si indagano i casi di metamusicalità in riferimento al dolore, che si intensificano in Euripide: si nota lo sviluppo di una riflessione sul ruolo della mousike rispetto al dolore, espressa attraverso un lessico medico e musicale. Si dimostra che in Euripide si pone il problema di quale scopo abbia la musica, se sia utile, e in quale forma lo sia. Nella prima produzione si teorizza una mousa del lamento come dolce o terapeutica per chi soffre. Molti personaggi, però, mostrano sfiducia nel potere curativo del lamento. Nell’ultima produzione si intensificano gli interrogativi sulla performance del canto, che si connotano come casi metamusicali e metateatrali. Nell’Elena, nell’Ipsipile e nelle Baccanti, E. sembra proporre una terapia ‘omeopatica’ del dolore attraverso la musica orgiastico-dionisiaca. Nel II capitolo, Natura e musica, si sceglie l’Ifigenia Taurica come esempio di mimetismo orchestico-musicale fondato – oltre che su casi di autoreferenzialità – su un immaginario naturale che, ‘facendo musica’, contribuisce all’espressività della choreia e della musica in scena. Si ipotizza inoltre un accompagnamento musicale mimetico rispetto ai suoni della natura e movimenti di danza lineari accanto a formazioni circolari, che sembrano richiamare la ‘doppia natura’ del ditirambo. L’Appendice I, Gli aggettivi poetici ξουθός e ξουθόπτερος: il loro significato e la loro potenzialità allusiva, affronta un caso particolare e problematico di ‘mimetismo lessicale’, innescato dal termine ξουθός e dal composto euripideo ξουθόπτερος. Si dimostra che l’aggettivo indica originariamente un movimento vibratorio, ma sviluppa anche un senso sonoro, ed è quindi un termine evocativo rispetto alla performance. Nell’Appendice II, Il lessico musicale in Euripide, è raccolto il lessico euripideo coreutico-musicale. Nell’Appendice III, La mousike nei drammi euripidei, sono raccolti i riferimenti alla mousike in ogni dramma.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le cellule staminali/stromali mesenchimali umane (hMSC) sono attualmente applicate in diversi studi clinici e la loro efficacia è spesso legata alla loro capacità di raggiungere il sito d’interesse. Poco si sa sul loro comportamento migratorio e i meccanismi che ne sono alla base. Perciò, questo studio è stato progettato per comprendere il comportamento migratorio delle hMSC e il coinvolgimento di Akt, nota anche come proteina chinasi B. L’espressione e la fosforilazione della proteinchinasi Akt è stata studiata mediante Western blotting. Oltre al time-lapse in vivo imaging, il movimento cellulare è stato monitorato sia mediante saggi tridimensionali, con l’uso di transwell, che mediante saggi bidimensionali, attraverso la tecnica del wound healing. Le prove effettuate hanno rivelato che le hMSC hanno una buona capacità migratoria. E’ stato osservato che la proteinchinasi B/Akt ha elevati livelli basali di fosforilazione in queste cellule. Inoltre, la caratterizzazione delle principali proteine di regolazione ed effettrici, a monte e a valle di Akt, ha permesso di concludere che la cascata di reazioni della via di segnale anche nelle hMSC segue un andamento canonico. Specifici inibitori farmacologici sono stati utilizzati per determinare il potenziale meccanismo coinvolto nella migrazione cellulare e nell'invasione. L’inibizione della via PI3K/Akt determina una significativa riduzione della migrazione. L’utilizzo di inibitori farmacologici specifici per le singole isoforme di Akt ha permesso di discriminare il ruolo diverso di Akt1 e Akt2 nella migrazione delle hMSC. E’ stato infatti dimostrato che l'inattivazione di Akt2, ma non quella di Akt1, diminuisce significativamente la migrazione cellulare. Nel complesso i risultati ottenuti indicano che l'attivazione di Akt2 svolge un ruolo critico nella migrazione della hMSC; ulteriori studi sono necessari per approfondire la comprensione del fenomeno. La dimostrazione che l’isoforma Akt2 è necessaria per la chemiotassi diretta delle hMSC, rende questa chinasi un potenziale bersaglio farmacologico per modulare la loro migrazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel Comune di Ravenna, oltre 6.800 ettari di terreni agricoli sono a rischio salinizzazione, a causa dell’alta salinità delle acque sotterranee presenti all’interno dell’acquifero freatico costiero. L'area è interessata da subsidenza naturale, per compattazione dei sedimenti alluvionali e antropica, causata dall’estrazione di gas e dall’eccessivo sfruttamento delle acque sotterranee. Ne deriva che la maggior parte di questo territorio è sotto il livello medio del mare e l'agricoltura, così come ogni altra attività umana, è possibile grazie ad una fitta rete di canali di drenaggio che garantiscono il franco di coltivazione. L’agricoltura è una risorsa importante per la zona, ma a causa della scarsa disponibilità di acque dolci e per l’aumento dei processi di salinizzazione dei suoli, necessita di un cambiamento. Servono pratiche agricole sostenibili, con idonei requisiti irrigui, di drenaggio del suolo, di resistenza alla salinizzazione e di controllo del suolo. Dopo un’analisi generale sulle condizioni dell’acquifero, è stato monitorato un transetto di 10km rappresentativo della parte costiera di Ravenna. Infine, con l'obiettivo di comprendere l'interazione tra un canale d'irrigazione e le acque sotterranee, una piccola area agricola (12 ettari), è stata monitorata nel corso del 2011 utilizzando metodi idrologici, geochimici e geofisici. I risultati di questo lavoro mostrano una diffusa salinizzazione della falda freatica, ma anche la presenza di una lente d'acqua dolce spessa 5m, a 400m dalla linea di riva, con caratteristiche chimiche (hydrofacies) tipici di acque continentali e con dimensioni variabili stagionalmente. Questa bolla di acqua dolce si è originata esclusivamente dalle infiltrazioni dal canale d’irrigazione presente, in quanto, il contributo dell’irrigazione superficiale è stato nullo. Sfruttando la rete di canali di drenaggio già presente sarebbe possibile estendere questo processo d’infiltrazione da canale in altre porzioni dell’acquifero allo scopo di ricaricare l’acquifero stesso e limitare la salinizzazione dei suoli.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aedes albopictus (Skuse), comunemente detta Zanzara Tigre, ha invaso, negli ultimi anni, molti paesi, soprattutto in modo passivo attraverso il commercio di pneumatici usati. Questa specie è particolarmente adatta all'applicazione della tecnica dell'insetto sterile (SIT), basata su allevamento massale, sterilizzazione e rilascio in campo di un gran numero di maschi della specie vettrice. I maschi sterili rilasciati devono essere in grado di volare, di disperdersi sul territorio, di sopravvivere, di essere sessualmente attivi abbastanza a lungo per coprire il tempo tra una fase di rilascio e la successiva, di individuare le femmine vergini selvatiche e competere con successo per l'accoppiamento con i maschi selvatici. La dispersione e la sopravvivenza dei maschi di Ae. albopictus allevati in laboratorio, sono state studiate mediante tecniche di marcatura, rilascio e ricattura. Le catture sono state eseguite da tecnici specializzati, in un raggio di 350 m dal sito di rilascio. Gli esperimenti condotti hanno dimostrato che i maschi sono in grado di disperdersi, dal sito di rilascio, per circa 200 m ma la loro longevità in campo è fortemente dipendente dalle condizioni climatiche. In studi di semi-campo e di campo è stato valutato uno speciale dispositivo progettato per essere incluso nella stazione di rilascio dei maschi in grado di fornire loro fonti energetiche per migliorarne le prestazioni. I risultati ottenuti sono stati positivi. Studi di competitività sono stati condotti in tunnel costruiti in un ambiente naturale al fine di validare un protocollo per studi sulla competitività dei maschi in questo modello sperimentale. Maschi irraggiati mediante l'applicazione di raggi gamma alla dose di 30 Gy sono stati messi in competizione con maschi fertili per l'accoppiamento con femmine vergini con diversi rapporti. I risultati ottenuti hanno dimostrato le buone prestazioni e l'affidabilità di questo modello sperimentale rimanendo però irrisolto il problema dell’elevata variabilità.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I test di qualifica a vibrazioni vengono usati in fase di progettazione di un componente per verificarne la resistenza meccanica alle sollecitazioni dinamiche (di natura vibratoria) applicate durante la sua vita utile. La durata delle vibrazioni applicate al componente durante la sua vita utile (migliaia di ore) deve essere ridotta al fine di realizzare test fattibili in laboratorio, condotti in genere utilizzando uno shaker elettrodinamico. L’idea è quella di aumentare l’intensità delle vibrazioni riducendone la durata. Esistono diverse procedure di Test Tailoring che tramite un metodo di sintesi definiscono un profilo vibratorio da applicare in laboratorio a partire dalle reali vibrazioni applicate al componente: una delle metodologie più comuni si basa sull’equivalenza del danno a fatica prodotto dalle reali vibrazioni e dalle vibrazioni sintetizzate. Questo approccio è piuttosto diffuso tuttavia all’autore non risulta presente nessun riferimento in letteratura che ne certifichi la validità tramite evidenza sperimentalmente. L’obiettivo dell’attività di ricerca è stato di verificare la validità del metodo tramite una campagna sperimentale condotta su opportuni provini. Il metodo viene inizialmente usato per sintetizzare un profilo vibratorio (random stazionario) avente la stessa durata di un profilo vibratorio non stazionario acquisito in condizioni reali. Il danno a fatica prodotto dalla vibrazione sintetizzata è stato confrontato con quello della vibrazione reale in termini di tempo di rottura dei provini. I risultati mostrano che il danno prodotto dalla vibrazione sintetizzata è sovrastimato, quindi l’equivalenza non è rispettata. Sono stati individuati alcuni punti critici e sono state proposte alcune modifiche al metodo per rendere la teoria più robusta. Il metodo è stato verificato con altri test e i risultati confermano la validità del metodo a condizione che i punti critici individuati siano correttamente analizzati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A control-oriented model of a Dual Clutch Transmission was developed for real-time Hardware In the Loop (HIL) applications, to support model-based development of the DCT controller. The model is an innovative attempt to reproduce the fast dynamics of the actuation system while maintaining a step size large enough for real-time applications. The model comprehends a detailed physical description of hydraulic circuit, clutches, synchronizers and gears, and simplified vehicle and internal combustion engine sub-models. As the oil circulating in the system has a large bulk modulus, the pressure dynamics are very fast, possibly causing instability in a real-time simulation; the same challenge involves the servo valves dynamics, due to the very small masses of the moving elements. Therefore, the hydraulic circuit model has been modified and simplified without losing physical validity, in order to adapt it to the real-time simulation requirements. The results of offline simulations have been compared to on-board measurements to verify the validity of the developed model, that was then implemented in a HIL system and connected to the TCU (Transmission Control Unit). Several tests have been performed: electrical failure tests on sensors and actuators, hydraulic and mechanical failure tests on hydraulic valves, clutches and synchronizers, and application tests comprehending all the main features of the control performed by the TCU. Being based on physical laws, in every condition the model simulates a plausible reaction of the system. The first intensive use of the HIL application led to the validation of the new safety strategies implemented inside the TCU software. A test automation procedure has been developed to permit the execution of a pattern of tests without the interaction of the user; fully repeatable tests can be performed for non-regression verification, allowing the testing of new software releases in fully automatic mode.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sulla base delle evidenze della letteratura (Fenaux, 2009; Lyons, JCO 2009), a partire da Settembre 2004 nel Nostro Istituto sono stati trattati 57 pazienti affetti da Sindrome Mielodisplastica (MDS) mediante terapia demetilante con 5-Azacitidina. Sono stati utilizzati differenti regimi terapeutici a seconda della classe di rischio IPSS: i pazienti a rischio basso/intermedio-1 hanno ricevuto Azacitidina 75 mg/mq/die sottocute per 5 giorni/mese (schema 5) per 8 cicli; i pazienti a rischio alto/intermedio-2 hanno ricevuto Azacitidina 50 mg/mq/die sottocute per 10 giorni/mese (schema 5+2+5) o Azacitidina 75 mg/mq/die per 7 giorni/mese (schema 7) fino a perdita della risposta. Su una casistica totale di 57 pazienti (15 a rischio basso/int-1; 41 rischio alto/int-2), l’87.7% (50 pazienti) sono risultati valutabili. Tra questi le risposte osservate sono state del 68% (34 pazienti), di cui il 14% (7 pazienti) ha ottenuto una Remissione Completa (CR) ed il 54% (27 pazienti) ha ottenuto un Hematologic Improvement (HI). La valutazione della risposta è stata eseguita secondo i criteri dell’International Working Group 2006 (IWG, Cheeson 2006). Le principali tossicità osservate sono state rappresentate da reazioni cutanee locali nel sito d’iniezione, tossicità gastrointestinale (stipsi e/o diarrea), mielotossicità, neutropenia febbrile, sepsi (3 pazienti). Tra i pazienti trattati abbiamo osservato la presenza di risposta ematologica prolungata (≥ 20 mesi) in 10 pazienti (20% dei pazienti valutabili). Inoltre, grazie alla collaborazione con il Dipartimento di Anatomia Umana dell’Università di Bologna (Prof. L. Cocco, Dott.ssa M.Y. Follo), tutti i pazienti trattati sono stati valutati per i livelli di espressione genica e metilazione del gene della fosfolipasi PI-PLC-beta1. I dati biologici così ottenuti sono stati correlati con quelli clinici, evidenziando la presenza di una correlazione tra i livelli di espressione genica e mutilazione della PI-PLC-beta1 e la risposta alla terapia demetilante con 5-Azacitidina.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Over the last 60 years, computers and software have favoured incredible advancements in every field. Nowadays, however, these systems are so complicated that it is difficult – if not challenging – to understand whether they meet some requirement or are able to show some desired behaviour or property. This dissertation introduces a Just-In-Time (JIT) a posteriori approach to perform the conformance check to identify any deviation from the desired behaviour as soon as possible, and possibly apply some corrections. The declarative framework that implements our approach – entirely developed on the promising open source forward-chaining Production Rule System (PRS) named Drools – consists of three components: 1. a monitoring module based on a novel, efficient implementation of Event Calculus (EC), 2. a general purpose hybrid reasoning module (the first of its genre) merging temporal, semantic, fuzzy and rule-based reasoning, 3. a logic formalism based on the concept of expectations introducing Event-Condition-Expectation rules (ECE-rules) to assess the global conformance of a system. The framework is also accompanied by an optional module that provides Probabilistic Inductive Logic Programming (PILP). By shifting the conformance check from after execution to just in time, this approach combines the advantages of many a posteriori and a priori methods proposed in literature. Quite remarkably, if the corrective actions are explicitly given, the reactive nature of this methodology allows to reconcile any deviations from the desired behaviour as soon as it is detected. In conclusion, the proposed methodology brings some advancements to solve the problem of the conformance checking, helping to fill the gap between humans and the increasingly complex technology.