962 resultados para CDR, Trattamento meccanico- biologico, utilizzo del CDR nei cementifici, norme UNI 9903
Resumo:
Tramite i sensori inerziali sono stati analizzati 17 bambini (10-16 mesi) durante i primi 2 mesi di cammino indipendente. Sono stati acquisiti i parametri temporali e analizzata la simmetria del passo differenziando i parametri su gamba destra e su gamba sinistra. Si è riscontrato che gli andamenti dei parametri sono in linea generale in accordo con la letteratura. Analizzando la simmetria si è evidenziato che la differenza tra Stance- time destro e Stance- time sinistro per alcuni soggetti è più bassa e per altri più alta. Tali studi saranno importanti per approfondire ulteriormente in futuro aspetti sulle strategie del passo nei primi due mesi di cammino indipendente.
Resumo:
La portata media cardiaca, (cardiac output “CO”) è un parametro essenziale per una buona gestione dei pazienti o per il monitoraggio degli stessi durante la loro permanenza nell’unità di terapia intensiva. La stesura di questo elaborato prende spunto sull’articolo di Theodore G. Papaioannou, Orestis Vardoulis, and Nikos Stergiopulos dal titolo “ The “systolic volume balance” method for the non invasive estimation of cardiac output based on pressure wave analysis” pubblicato sulla rivista American Journal of Physiology-Heart and Circulatory Physiology nel Marzo 2012. Nel sopracitato articolo si propone un metodo per il monitoraggio potenzialmente non invasivo della portata media cardiaca, basato su principi fisici ed emodinamici, che usa l’analisi della forma d’onda di pressione e un metodo non invasivo di calibrazione e trova la sua espressione ultima nell’equazione Qsvb=(C*PPao)/(T-(Psm,aorta*ts)/Pm). Questa formula è stata validata dagli autori, con buoni risultati, solo su un modello distribuito della circolazione sistemica e non è ancora stato validato in vivo. Questo elaborato si pone come obiettivo quello di un’analisi critica di questa formula per la stima della portata media cardiaca Qsvb. La formula proposta nell'articolo verrà verificata nel caso in cui la circolazione sistemica sia approssimata con modelli di tipo windkessel. Dallo studio svolto emerge il fatto che la formula porta risultati con errori trascurabili solo se si approssima la circolazione sistemica con il modello windkessel classico a due elementi (WK2) e la portata aortica con un’onda rettangolare. Approssimando la circolazione sistemica con il modello windkessel a tre elementi (WK3), o descrivendo la portata aortica con un’onda triangolare si ottengono risultati con errori non più trascurabili che variano dal 7%-9% nel caso del WK2 con portata aortica approssimata con onda triangolare ad errori più ampi del 20% nei i casi del WK3 per entrambe le approssimazioni della portata aortica.
Resumo:
Analisi cinematica delle fasi del nuoto, velocità in vasca e body roll attraverso l'uso di sensori inerziali. Implementazione di innovativi algoritmi di calcolo con l'utilizzo del filtro di Kalman 3D, matrici di rotazione e quaternioni per la determinazione dei parametri fondamentali del nuoto e della posizione del polso nel sistema di riferimento di torace. Confronto dei risultati ottenuti mediante i diversi algoritmi e loro validazione con quelli ottenuti con l'uso della stereofotogrammetria. Gli algoritmi possono essere generalizzati ad altri gesti motori.
Resumo:
"Non possiamo permettere l'utilizzo del [tessuto] urbano come strumento per la produzione di iniquità e trasferimenti, incapaci di vedere l'importanza e la difficoltà di creare uno spazio attivo che sia equo, ecologico ed economico" (Schafran, 2014). In un contesto di emergenza ambientale globale e considerando le problematiche degli insediamenti popolari sudamericani, la presente ricerca propone l’introduzione del concetto di sostenibilità urbana come fattore di miglioramento di un quartiere della periferia del Gran Santiago. Il caso studio è interessante in quanto la politica cilena si muove in direzione di maggiore consapevolezza per i temi ambientali, pur dovendo ancora risolvere problemi di segregazione e scarsa qualità nella “vivienda social”. La presente ricerca è quindi finalizzata ad individuare una matrice composta da linee guida di sostenibilità riferite alla scala di quartiere, come strategia per rispondere ai problemi socio-residenziali, oltre alle imperanti esigenze di maggiore sostenibilità ambientale. A tale scopo è necessario fare riferimento a sistemi di valutazione adeguati: analizzando quelli utilizzati in ambito nazionale e internazionale, si ricava una matrice di 106 linee guida, 16 criteri e 3 ambiti principali di interesse. È questo lo strumento utilizzato per la diagnosi del caso studio. In base alle criticità emerse e alle necessità dell’area emergono due strategie principali su cui si articola la proposta progettuale di riqualificazione del quartiere: implementare dotazioni di servizi e aree verdi e introdurre tecnologie e misure ecofriendy, col fine di generare identità e migliorare la qualità di vita nel quartiere.
Resumo:
La tesi è stata incentrata sul gioco «Indovina chi?» per l’identificazione da parte del robot Nao di un personaggio tramite la sua descrizione. In particolare la descrizione avviene tramite domande e risposte L’obiettivo della tesi è la progettazione di un sistema in grado di capire ed elaborare dei dati comunicati usando un sottoinsieme del linguaggio naturale, estrapolarne le informazioni chiave e ottenere un riscontro con informazioni date in precedenza. Si è quindi programmato il robot Nao in modo che sia in grado di giocare una partita di «Indovina chi?» contro un umano comunicando tramite il linguaggio naturale. Sono state implementate regole di estrazione e categorizzazione per la comprensione del testo utilizzando Cogito, una tecnologia brevettata dall'azienda Expert System. In questo modo il robot è in grado di capire le risposte e rispondere alle domande formulate dall'umano mediante il linguaggio naturale. Per il riconoscimento vocale è stata utilizzata l'API di Google e PyAudio per l'utilizzo del microfono. Il programma è stato implementato in Python e i dati dei personaggi sono memorizzati in un database che viene interrogato e modificato dal robot. L'algoritmo del gioco si basa su calcoli probabilistici di vittoria del robot e sulla scelta delle domande da proporre in base alle risposte precedentemente ricevute dall'umano. Le regole semantiche realizzate danno la possibilità al giocatore di formulare frasi utilizzando il linguaggio naturale, inoltre il robot è in grado di distinguere le informazioni che riguardano il personaggio da indovinare senza farsi ingannare. La percentuale di vittoria del robot ottenuta giocando 20 partite è stata del 50%. Il data base è stato sviluppato in modo da poter realizzare un identikit completo di una persona, oltre a quello dei personaggi del gioco. È quindi possibile ampliare il progetto per altri scopi, oltre a quello del gioco, nel campo dell'identificazione.
Radiotherapy with scanning carbon ion beams: biological dose analysis for partial treatment delivery
Resumo:
L’uso di particelle cariche pesanti in radioterapia prende il nome di adroterapia. L’adroterapia permette l’irraggiamento di un volume bersaglio minimizzando il danno ai tessuti sani circostanti rispetto alla radioterapia tradizionale a raggi X. Le proprietà radiobiologiche degli ioni carbonio rappresentano un problema per i modelli radiobiologici a causa della non linearità della loro efficacia biologica. In questa tesi presenteremo gli algoritmi che possono essere usati per calcolare la dose fisica e biologica per un piano di trattamento del CNAO (Centro Nazionale Adroterapia Oncologica). Un caso di particolare interesse è l’eventualità che un piano di trattamento venga interrotto prima del dovuto. A causa della non linearità della sopravvivenza cellulare al variare della quantità di dose ricevuta giornalmente, è necessario studiare gli effetti degli irraggiamenti parziali utilizzando algoritmi che tengano conto delle tante variabili che caratterizzano sia i fasci di ioni che i tessuti irraggiati. Nell'ambito di questa tesi, appositi algoritmi in MATLAB sono stati sviluppati e implementati per confrontare la dose biologica e fisica assorbita nei casi di trattamento parziale.
Resumo:
L'elaborato analizza l'effetto di additivi WMA e ringiovanenti sulle prestazioni finali del conglomerato bituminoso. Vengono percio citati diversi studi per cercare di capire come l'utilizzo del fresato e degli additivi influisca sulle prestazioni del conglomerato.
Resumo:
Questo lavoro di ricerca studia il mercato digitale delle Start-Up italiane, valutando i passi del management nei vari cicli di vita aziendale. Dopo uno studio teorico sull'ecosistema italiano startup e il cambiamento dell'approccio scelto dal manager all'interno dell'azienda per arrivare al successo, è stato fatto un studio empirico con questionari e interviste. L'intento è capire in un team aziendale quali sono le figure da seguire e con che importanza. Quanto è fondamentale la figura di colui che organizza, media e detiene la responsabilità del lavoro finito nei tempi prestabiliti?
Resumo:
Background: Acetylation and deacetylation at specific lysine (K) residues is mediated by histone acetylases (HATs) and deacetylases (HDACs), respectively. HATs and HDACs act on both histone and non-histone proteins, regulating various processes, including cardiac impulse propagation. Aim of the present work was to establish whether the function of the Ca2+ ATPase SERCA2, one of the major players in Ca2+ reuptake during excitation-contraction coupling in cardiac myocytes (CMs), could be modulated by direct K acetylation. Materials and methods: HL-1 atrial mouse cells (donated by Prof. Claycomb), zebrafish and Streptozotocin-induced diabetic rat CMs were treated with the pan-inhibitor of class I and II HDACs suberanilohydroxamic acid (SAHA) for 1.5 hour. Evaluation of SERCA2 acetylation was analyzed by co-immunoprecipitation. SERCA2 activity was measured on microsomes by pyruvate/NADH coupled reaction assay. SERCA2 mutants were obtained after cloning wild-type and mutated sequences into the pCDNA3 vector and transfected into HEK cells. Ca2+ transients in CMs (loading with Fluo3-AM, field stimulation, 0.5 Hz) and in transfected HEK cells (loading with FLUO-4, caffeine pulse) were recorded. Results: Co-Immunoprecipitation experiments performed on HL-1 cells demonstrated a significant increase in the acetylation of SERCA2 after SAHA-treatment (2.5 µM, n=3). This was associated with an increase in SERCA2 activity in microsomes obtained from HL-1 cells, after SAHA exposure (n=5). Accordingly, SAHA-treatment significantly shortened the Ca2+ reuptake time of adult zebrafish CMs. Further, SAHA 2.5 nM restored to control values the recovery time of Ca2+ transients decay in diabetic rat CMs. HDAC inhibition also improved contraction parameters, such as fraction of shortening, and increased pump activity in microsomes isolated from diabetic CMs (n=4). Notably, the K464, identified by bioinformatic tools as the most probable acetylation site on human SERCA2a, was mutated into Glutamine (Q) or Arginine (R) mimicking acetylation and deacetylation respectively. Measurements of Ca2+ transients in HEK cells revealed that the substitution of K464 with R significantly delayed the transient recovery time, thus indicating that deacetylation has a negative impact on SERCA2 function. Conclusions: Our results indicate that SERCA2 function can be improved by pro-acetylation interventions and that this mechanism of regulation is conserved among species. Therefore, the present work provides the basis to open the search for novel pharmacological tools able to specifically improve SERCA2 activity in diseases where its expression and/or function is impaired, such as diabetic cardiomyopathy.
Resumo:
Analisi della vulnerabilità sismica degli aggregati edilizi del centro storico di Castelfranco Emilia, contraddistinti dal numero 5,6,7,8,13,14,15,16. Utilizzo del metodo di analisi speditivo ed analitico, con due modalità distinte di calcolo degli indici. Analisi della vulnerabilità delle vie del centro storico di Castelfranco Emilia, in particolare Corso Martiri, Via ripa Superiore e Inferiore, Via Zanasi-P.zza Garibaldi, Via Bertelli, Via Picciolio-Fasani, Via Zanolini-Del Bagno, via Dalla Vacca-Morandi. Definizione dell'indice di vulnerabilità viaria. Classifica di vulnerabilità degli aggregati e delle vie.
Resumo:
Il paesaggio attuale è un'eredità del passato.Solo chi conosce e capisce il passato è in grado di gestire il futuro.Lo studio dell'evoluzione naturale passata è utile quindi non solo per la comprensione dell'origine del nostro ambiente,ma anche per la pianificazione della gestione futura.Solo da pochi decenni si è per esempio riusciti a capire che gli estesi castagneti del Sud delle Alpi non hanno origine naturale,ma sono dovuti alla mano dell'uomo,che, al tempo della colonizzazione romana,ha iniziato a coltivare il castagno in maniera sistematica. Ma come è possibile ricostruire vicende della natura tanto remote? Sul fondo dei laghi e nelle torbiere i resti fossili di vegetali (p.es.polline e microcarboni) e di animali si sono accumulati nel corso dei millenni, rimanendo inalterati a causa della mancanza di ossigeno e quindi di organismi distruttori. Attraverso la trivellazione e l'analisi in laboratorio degli strati di questi sedimenti è possibile ricostruire il tipo di polline (e per analogia di vegetazione) e la frequenza di microcarboni (e quindi di incendi di bosco) che si sono succeduti nel corso dei millenni. E' quanto è stato fatto nel corso dell'ultimo decennio da parte dell'Università di Berna nei Laghi di Origlio e di Muzzano,ottenendo risultati interessanti e per certi versi anche inaspettati. A partire dal 5.500 a.C.la frequenza degli incendi è aumentata a causa dell'azione dell'uomo:i primi contadini delle nostre terre utilizzavano infatti il fuoco come mezzo per eliminare la foresta e guadagnare spazi aperti per l'agricoltura e l'allevamento del bestiame.Una pratica che nel corso dei millenni ha provocato anche una forte selezione della vegetazione arborea,distruggendo le foreste originali. La trasformazione del paesaggio forestale da parte dell'uomo non è quindi un fenomeno limitato agli ultimi 2.000 anni,ma ha le proprie radici nel Neolitico,oltre 7.000 anni orsono.Nel periodo del Ferro (800-15 a.C.),l'utilizzo del fuoco nella gestione del paesaggio diventa una pratica molto ricorrente, come dimostrano i picchi estremi della frequenza dei microcarboni.Bisognerà attendere l'introduzione del castagno durante l'Epoca Romana per assistere a un netto cambiamento di approccio:i castagneti diventano boschi di reddito da gestire senza l'aiuto del fuoco. A partire da questo momento,la frequenza degli incendi diminuisce drasticamente. Grazie a questi studi è stato quindi possibile capire l'origine della nostra attuale copertura boschiva e intuire quali sarebbero senza l'intervento dell'uomo le specie dominanti nei nostri boschi. Informazioni di estrema importanza per una futura gestione selvicolturale in sintonia con la natura.
Resumo:
La Chemical Vapor Deposition (CVD) permette la crescita di sottili strati di grafene con aree di decine di centimetri quadrati in maniera continua ed uniforme. Questa tecnica utilizza un substrato metallico, solitamente rame, riscaldato oltre i 1000 °C, sulla cui superficie il carbonio cristallizza sotto forma di grafene in un’atmosfera attiva di metano ed idrogeno. Durante la crescita, sulla superficie del rame si decompone il metano utilizzato come sorgente di carbonio. La morfologia e la composizione della superficie del rame diventano quindi elementi critici del processo per garantire la sintesi di grafene di alta qualità e purezza. In questo manoscritto si documenta l’attività sperimentale svolta presso i laboratori dell’Istituto per la Microelettronica e i Microsistemi del CNR di Bologna sulla caratterizzazione della superficie del substrato di rame utilizzato per la sintesi del grafene per CVD. L’obiettivo di questa attività è stato la caratterizzazione della morfologia superficiale del foglio metallico con misure di rugosità e di dimensione dei grani cristallini, seguendo l’evoluzione di queste caratteristiche durante i passaggi del processo di sintesi. Le misure di rugosità sono state effettuate utilizzando tecniche di profilometria ottica interferometrica, che hanno permesso di misurare l’effetto di livellamento successivo all' introduzione di un etching chimico nel processo consolidato utilizzato presso i laboratori dell’IMM di Bologna. Nell'ultima parte di questo manoscritto si è invece studiato, con tecniche di microscopia ottica ed elettronica a scansione, l’effetto di diverse concentrazioni di argon e idrogeno durante il trattamento termico di annealing del rame sulla riorganizzazione dei suoi grani cristallini. L’analisi preliminare effettuata ha permesso di individuare un intervallo ottimale dei parametri di annealing e di crescita del grafene, suggerendo importanti direzioni per migliorare il processo di sintesi attualmente utilizzato.
Resumo:
Perché uno studente, con quoziente intellettivo nella media, che ha buoni voti in tutte le materie, colleziona insuccessi in matematica? Si può trattare di difficoltà di apprendimento passeggere su un dato argomento, può essere un atteggiamento negativo nei confronti della materia o può trattarsi di discalculia. L'insegnante di matematica deve essere preparato ad individuare le possibili cause dell'insuccesso scolastico degli studenti e ad attuare le strategie didattiche che migliorino il più possibile il suo percorso scolastico. Nel mio elaborato ho riportato una sintesi delle leggi che hanno condotto la scuola italiana ad orientarsi in una prospettiva sempre più inclusiva. In particolare ho riportato la legge 170 del 2010, la prima che definisce i disturbi dell'apprendimento, e la direttiva Bes del 2012, che amplia ancora di più l'area delle problematiche scolastiche. Partendo da una distinzione tra disturbo e difficoltà nell'apprendimento, ho trattato poi in particolare la discalculia, dal punto di vista didattico e riportando le sue definizioni nel corso del tempo. Tra le difficoltà ho citato invece la Matofobia o Math Anxiety. Una paura della matematica ereditata, un'eredità trasmessa però attraverso l'ambiente in cui si cresce e non dai geni. Infine ipotizzando delle lezioni in una classe di seconda superiore in cui sono presenti studenti con discalculia, ho realizzato un'unità didattica dal titolo "Le rette nel piano cartesiano". Per la sua realizzazione ho pensato all'utilizzo del software geogebra e del lavoro in gruppi, per promuovere l'apprendimento attraverso la scoperta e il ragionamento logico, piuttosto che la memorizzazione di formule e la loro mera applicazione. Ho concluso il mio elaborato riportando delle riflessioni su come i docenti si attivano in presenza di uno studente con certificazione di dsa e sul rapporto tra scuola e famiglie, riflessioni tratte da alcune interviste fatte ai referenti per i dsa in diverse scuole della Romagna.
Resumo:
Il lavoro di questa tesi è focalizzato sulla valutazione della sensibilità delle microonde rispetto a differenti idrometeore per le frequenze a 89 GHz e 150 GHz e nella banda di assorbimento del vapor d'acqua a 183.31 GHz. Il metodo di indagine consiste nell'utilizzo del modello di trasferimento radiativo RTTOV (Eyre, 1991) per simulare radianze dei canali dei sensori satellitari nelle microonde Advanced Microwave Sounding Unit-B (AMSU-B) e Microwave Humidity Sounder (MHS). Le simulazioni basate sul modello RTTOV si sono focalizzate su tre dataset indipendenti, forniti da ECMWF. Il primo passo tiene conto di una selezione di categorie dei profili atmosferici basato su una distinzione della fase delle idrometeore, LWP, IWP e WVP, con sottoclassi terra e oceano. La distinzione in diverse categorie permette di valutare la sensibilità di ciascuna frequenza utilizzata nelle simulazioni al variare del contenuto di acqua e ghiaccio. Un secondo approccio è usato per valutare la risposta di ciascuna frequenza nei casi di nevicate sulla terraferma. Questa indagine ha permesso lo sviluppo di un nuovo algoritmo prototipale per la stima dell'intensità di precipitazione nevosa basato su una serie di test a soglia e una equazione di combinazione lineare multipla che sfrutta una combinazione dei canali più sensibili alla snowfall: 150, 186 e 190 GHz. Una prima verifica su casi di studio pre-selezionati di snowstorm sembra fornire risultati promettenti. Infine è stato realizzato uno studio di sensibilità dell’algoritmo 183-WSL (Laviola and Levizzani, 2011) utilizzando le simulazioni di RTTOV con precipitazione/non precipitazione come predittori discreti e con le intensità di precipitazione come predittori continui. Le simulazioni RTTOV rivelano una sovrastima delle radianze in presenza di profili di pioggia e ciò potrebbe essere dovuto alle approssimazioni e parametrizzazioni adottate nel modello RTTOV-SCATT usato per la risoluzione dello scattering in presenza di precipitazione.
Resumo:
Microsoft ha introdotto nella versione 2015 di Visual Studio un nuovo compilatore per i linguaggi C# e Visual Basic chiamato Roslyn. Oltre che un compilatore, Roslyn è una piattaforma che mette a disposizione degli sviluppatori servizi per analizzare e modificare progetti .NET, interagire con le varie fasi della compilazione e creare applicazioni per l'analisi e generazione di codice sorgente. Obiettivo della tesi vuole essere lo studio della suddetta piattaforma ed il suo utilizzo nello sviluppo di estensioni per Visual Studio. La tesi si pone pertanto nel contesto delle tecniche di analisi e generazione di codice sorgente. Il lavoro di tesi ha previsto lo sviluppo di due applicazioni facenti uso delle API di Roslyn. La prima applicazione consiste in un analizzatore di codice C# che provvede alla segnalazione di warning riguardanti l'errato utilizzo del costrutto var e all'esplicitazione del tipo relativo. La seconda applicazione riguarda un generatore di codice C# che utilizza i servizi di Roslyn per semplificare e automatizzare la scrittura di codice nel contesto del framework Phoenix. I risultati ottenuti possono essere d'aiuto per un successivo studio della piattaforma Roslyn ed essere usati come punto di partenza per la creazione dei propri applicativi per l'analisi e generazione di codice sorgente.