559 resultados para Interfaccia, integrata, CMOS
Resumo:
The present study investigates the principles that effect the relationship between voice and movement in performance. The topic stresses a contemporary tendency, which emerges from the work of numerous artits and looks into a research field that has not yet been well explored. The research arises from what I observed and experienced during my performance practical work and what I deepened after theorical studies: expression through movement and voice reflects constant principles. The first two chapters of the former study analyze the compared lines of the inquiry, from a theoretical point of view (interior and exterior voice-movement spatial patterns, and temporal patterns) and a practical point of view referring to body, action and relation. The third one is a survey on 'vocal gesture' as devised by Francesca della Monica, a topic that finds here the first academic investigation, built after nine years sudies with the artist on the oral sources of her teaching. The research is based on practical and theorical sources (especially philosophical studies of Giovanni Piana, Carlo Serra, Merleau-Ponty; performing studies of Grotowski, Laban, Dalcroze, Tomatis; ancient greek philosophy and literature; bodywork tecqniques as Kineseology, Body-mind centering, Alexander, Feldenkrais). The purpose of the study is to theorize, sistematyze and expose clear lines of compared investigation awakening the performer's interest on a central issue of his work and drawing the researcher's attention to make further focusing on the matter. Abstract (Italian) La ricerca va incontro a una tendenza che la contemporaneità pone in risalto con l'opera di numerosi artisti, investigando un campo ancora poco visitato a livello critico. Essa teorizza, sistematizza ed espone le costanti riscontrate nella relazione tra voce e movimento. L'indagine deriva dal presupposto, a me suggerito dalla pratica e dallo scambio con maestri e performer, e qui approfondito e restituito a livello teorico, che nella danza e nel canto, nell'espressione attraverso il movimento o attraverso la voce, si riflettono gli stessi principi. La tesi è articolata in tre capitoli: i primi due sviluppano le linee di indagine comparata, prima da un punto di vista filosofico e poi da un punto di vista pratico, il terzo porta alla luce il concetto di gesto-vocale come inteso da Francesca della Monica, di cui questo studio rappresenta il primo contributo scientifico, aprendo una ricerca nuova agli studi di settore. Il primo capitolo, 'Risonanze', sviluppa le premesse filosofiche della questione, introduce il corpo come veicolo di voce e movimento, affronta il tema del movimento della voce nello spazio interno del corpo e nello spazio di relazione. Legge poi il movimento in termini temporali, secondo i concetti di istante, ritmo, forma e flusso. Il secondo capitolo, 'Costanti', espone le costanti concrete della relazione voce-movimento in riferimento allo spazio interno del corpo, all'azione, allo spazio esterno di relazione. Il terzo capitolo, 'Confini', analizza il gesto vocale, come inteso da Francesca della Monica, concetto sintesi dell'intera ricerca poiché integra, nella sua essenza, il movimento fisico e vocale, restituendo e approfondendo lo spettro di riflessioni emerse nei primi due capitoli. Il gesto vocale, nella sua accezione espressiva, così come il lavoro di Francesca della Monica, è ancora estraneo agli studi di settore e trova in questo studio un primo contributo accademico. Le fonti sono quelle dell'insegnamento orale di Francesca della Monica, che ho seguito per nove anni, fino a desumerne una mia personale sistematizzazione, integrata con altri punti di vista critici. Analizzo i diversi livelli di profondità del gesto vocale scandendo il tema secondo la categoria della relazione: relazioni motorie, relazioni materiche, relazioni spaziali, temporali, compositive e sinestesiche. Le fonti della ricerca sono scaturite da due sorgenti, quella sul campo, e quella della teoria, confluite qui in un unico flusso. Le fonti 'in presa diretta' sono state avvalorate e confrontate con le fonti relative agli studi di settore (in particolare per la filosofia Giovanni Piana, Carlo Serra, Merleau-Ponty, per il teatro, il canto e la danza Grotowski, Laban, Dalcroze, Tomatis) e le bodywork techniques (Kinesiologia, Body-mind centering, metodo Alexander, metodo Feldenkrais). Ampio spazio viene dato alla grecità antica, che propone sull'espressione di voce e movimento un pensiero integrato carico di speculazioni che racchiudono in nuce i principi sviluppati. Lo studio tenta di offrire un livello di lettura idoneo a suscitare l'interesse del performer, e a valere come momento di indagine per lo studioso, che possa da queste basi operare approfondimenti sulle connessioni proposte. L'obiettivo è restituire la conoscenza, intuita in virtù della pratica, elaborata ed arricchita grazie alla teoria, su un nodo fondamentale per gli studi teatrali e recente oggetto di attenzione da parte di critici e artisti.
Resumo:
Il progetto descritto in questo documento consiste fondamentalmente nell'integrazione di applicazioni context-aware su dispositivi mobili con reti di sensori e nello studio delle problematiche derivanti, vantaggi e potenziali utilizzi. La rete è stata costruita sfruttando l'insieme di protocolli per comunicazioni via radio Zigbee, particolarmente adatti per interazione tra dispositivi a basso consumo energetico e che necessitano di uno scarso tasso di trasferimento di dati. Le informazioni ottenute da sensori di varia natura sono processate da microcontrollori Arduino, scelti per la loro versatilità di utilizzo e design open source. Uno o più dispositivi sono designati per aggregare i dati rilevati dai singoli nodi in un unico pacchetto di informazioni, semanticamente correlate tra loro, quindi emetterle in broadcast su una diversa interfaccia di rete, in modo che diverse applicazioni esterne in ascolto possano riceverle e manipolarle. Viene utilizzato un protocollo specifico per la comunicazione tra i microcontrollori e le applicazioni che si interfacciano con la rete, costruito su misura per dispositivi con risorse limitate. L'applicazione context-aware che interagisce con la rete è stata sviluppata su piattaforma Android, la cui particolare flessibilità favorisce una migliore capacità di gestire i dati ottenuti. Questa applicazione è in grado di comunicare con la rete, manipolare i dati ricevuti ed eventualmente intraprendere azioni specifiche in totale indipendenza dal suo utilizzatore. Obiettivo del progetto è quello di costruire un meccanismo di interazione tra le tecnologie più adattivo e funzionale possibile.
Resumo:
Introduzione Una delle maggiori difficoltà durante la produzione dei prodotti surgelati riguarda la loro stabilizzazione e il mantenimento della catena del freddo durante tutte le fasi del processo produttivo. Tramite il seguente lavoro si propone di determinare a che temperatura e dopo quanto tempo, diverse tipologie di confezioni di surgelati (pisellini, melanzane e spinaci), raggiungono la temperatura ipotetica di inizio di scongelamento. Con lo scopo di analizzare, in maniera rapida ed economica, molte diverse combinazioni di tempo - temperatura dell’ambiente di produzione di diverse tipologie di prodotti surgelati (pisellini, melanzane e spinaci), sono stati sviluppati dei modelli numerici capaci di descrivere i fenomeni termici che intervengono durante il confezionamento dei prodotti. Materiali e Metodi Il modello sviluppatotiene conto sia dei fenomeni di convezione naturale che avvengono tra la superficie della confezione e il flusso esterno di aria, sia dei fenomeni di conduzione che interessano l'interno della confezione, la confezione (busta) ed il piano di appoggio. In figura vengono schematizzati i fenomeni termici presi in esame. La geometria del modelli rispecchia le reali dimensioni delle confezioni dei prodotti presi in esame. La mesh dei modelli 3D è costituita da elementi triangolari, posizionati sulle boundaries, tetraedrici e prismatici, posizionati in tutto il restante dominio. Trattandosi di trasferimenti di calore per superfici, nelle zone di interfaccia è stata adottata una mesh particolarmente fine. In figura viene riportata la mesh dell'intera geometria ed un particolare della mesh interna dove, i diversi colori indicano elementi tetraedrici o prismatici di diverse dimensioni. Per ottenere un accurato modello numerico è necessario descrivere nel modo più realistico possibile i materiali coinvolti, quindi è stato necessario descrivere i prodotti surgelati tramite le loro reali proprietà termiche in funzione della temperatura (conducibilità termica, calore specifico, diffusività termica). I valori delle proprietà termiche utilizzati nel modello tengono conto del fatto che il materiale interno alla busta è poroso, infatti è costituito da una "miscela" di aria e prodotto Successivamente sono state impostate le equazioni del modello e le condizioni al contorno. All'interno del volume della confezione, il trasfermiento del calore avviene per conduzione, mentre sulla superficie avviene per convezione, nelle zone esposte all'aria e per contatto nelle zone di contatto tra confezione e piano di appoggio. La validazione è stata effettuata riproducendo numericamente le medesime condizioni utilizzate durante la sperimentazione. I parametri tenuti in considerazione sono i seguenti: tipologia di confezione (definita numericamente dai parametri dimensionali), tipologia di prodotto (contraddistinto da specifiche proprietà termo-fisiche), temperatura della cella di conservazione, tempo di conservazione, temperatura iniziale all'interno della confezione pari. Risultati In figura viene riportato un esempio di configurazione dell’andamento della temperatura all’interno della confezione di pisellini dopo 20 minuti di condizionamento a 5°C. E’ possibile osservare che la temperatura della parte di confezione a diretto contatto con il piano di acciaio, raggiunge zero gradi (zona rossa), mentre la parte centrale della confezione si mantiene sui -22°C (zona blu). Con lo scopo di simulare la conservazione della confezione posizionata verticalmente, è stata eliminata la condizione di contatto tra piano d'acciaio e confezione. E’ possibile osservare che, in questo caso, la variazione della temperatura nei diversi punti della confezione è meno elevata, infatti la temperatura massima registrata è pari a circa -8°C (zona rossa), mentre la parte centrale della confezione si mantiene sui -22°C (zona blu). La confezione di melanzane è risultata essere la meno adatta al mantenimento della temperatura in quanto è caratterizzata da un ampia area di contatto con il piano e da uno spessore abbastanza limitato; la confezione che mantiene la temperatura più a lungo è quella costituita dagli spinaci, anche se le temperature medie delle confezioni di spinaci e pisellini sono pressoché simili. A fronte dei risultati ottenuti confrontando gli andamenti della temperatura delle tre differenti confezione, è stato valutato l'effetto del volume della confezione sull'andamento della temperatura media e al centro della confezione. Le prove sono state effettuate dimezzando e aumentando del doppio il volume della confezione di pisellini. Differenze significative sono state riscontrate solo tra la confezione standard e quella con volume raddoppiato. Dalla validazione sperimentale è risultato che il modello che meglio si adatta ai dati sperimentali è quello relativo ai pisellini, probabilmente perché il prodotto all'interno della confezione è distribuito in maniera piuttosto uniforme. Nelle confezioni degli spinaci e delle melanzane, risulta molto più difficile definire un valore di porosità che può variare anche da busta a busta. Tuttavia, a fronte di questa variabilità, i modelli risultano essere adatti ad un uso industriale. Conclusioni -I modelli numerici sviluppati permettono di analizzare un numero arbitrario di combinazioni delle variabili durata del confezionamento, temperatura ambiente, temperatura iniziale del prodotto, forma e dimensioni della confezione. - Il modello permette di osservare il campo di temperatura con un grado di dettaglio irraggiungibile dalle tecniche sperimentali. -I risultati, in forma integrale, si trovano in ottimo accordo con quelli osservati sperimentalmente.
Resumo:
Il presente elaborato di tesi si inserisce nell’ambito del progetto europeo THESEUS (Innovative technologies for safer European coasts in a changing climate) fra i cui principali obiettivi c’è quello di fornire un’adeguata metodologia integrata per la pianificazione di strategie di difesa costiera sostenibili. Le zone costiere sono sempre più soggette agli impatti antropici, legati all’intensificazione dell’urbanizzazione, e agli effetti del global climate change, ed in particolare al conseguente sea level rise. Diventa quindi importante, in un’ottica di preservazione e di gestione, capire come gli ecosistemi costieri e i beni e servizi che essi forniscono risponderanno a questi cambiamenti ambientali. Fra questi, preponderanti sono quelli rappresentati dalle spiagge sabbiose. Al fine di valutare come differenti strategie di gestione possono influenzare il sistema spiaggia, è stata analizzata la riposta del comparto bentonico della zona intertidale di due differenti spiagge lungo la costa emiliano-romagnola. Lido di Spina è fortemente antropizzato e caratterizzato dalla presenza di infrastrutture balneari-turistiche permanenti. E’ soggetto, inoltre, a interventi di ripascimento annuali e di pulizia della spiaggia. Bellocchio, invece, è un sito naturale che presenta una spiaggia caratterizzata dall’arretramento della linea di costa causata dell’erosione, e non è soggetta a interventi di gestione finalizzati alla sua mitigazione. In questo studio è stata utilizzata la componente meiobentonica, generalmente trascurata, come indicatore chiave della vulnerabilità ecologica, mentre la zona intertidale sabbiosa è stata indagata in quanto reputata uno dei primi habitat costieri “recettore” degli eventi di flooding e degli interventi di gestione. Globalmente è stato possibile evidenziare differenze di struttura di comunità fra i due siti indagati, sottolineando come, anche questa componente sia in grado di far emergere i cambiamenti dovuti a differenti approcci di gestione delle coste sabbiose. Nella seconda parte del lavoro, invece, è stato testato un approccio metodologico innovativo, denominato “Fuzzy Bayes Ecological Model” (FBEM), sviluppato nell’ambito del progetto THESEUS. L’applicazione del FBEM in THESEUS è finalizzata alla simulazione delle risposte ecosistemiche ad eventi di flooding costiero ed al fenomeno del sea level rise. In questo elaborato, il modello è stato adottato al fine di descrivere eventuali cambiamenti dei popolamenti meiobentonici. Nello specifico, l’utilizzo del modello è servito per poter confrontare la situazione attuale relativa, quindi, allo scenario di sea level rise pari a zero, con quella ipotizzata dall’IPCC per il 2080 di sea level rise pari a 0,22 m, prendendo in considerazione otto tempi di ritorno di eventi simulati di flooding a intensità crescente. Dalle simulazioni emerge come il driver del danno ecologico sia l’onda frangente il cui effetto risulta, però, mitigato dal sea level rise. I popolamenti meiobentonici sono risultati dei buoni indicatori per la valutazione dei rischi connessi al flooding e al sea level rise, dimostrando così il loro possibile utilizzo come descrittori dei cambiamenti ecologici delle zone costiere. Per questo, lo studio ed il monitoraggio della dinamica e della struttura dei popolamenti meiobentonici può diventare un mezzo fondamentale per la comprensione delle funzionalità ecosistemiche delle spiagge sabbiose. E’ inoltre in grado di produrre alcune delle informazioni necessarie allo sviluppo dei piani di gestione integrata della fascia costiera in un ottica di conservazione di questi habitat costieri e dei servizi e beni da essi forniti.
Resumo:
Un percorso di ricerca che interessa la città di New York prevede inevitabilmente nel suo sviluppo un approfondimento sulle diverse tematiche riguardanti in primis la città americana intesa in termini generali e, parallelamente, tutti quegli elementi che sono riconoscibili quali punti focali per l’isola di Manhattan. La lettura delle mappe storiche diventa un elemento fondamentale su cui basare un’analisi relativa alla crescita e al tessuto urbano; una particolare attenzione alle trasformazioni della griglia stradale che impone alla struttura della città un sistema rigido e che contemporaneamente sviluppa elementi di contraddizione al suo interno. E’ necessario quindi indagare il tema della griglia nelle città di fondazione e nelle varianti storiche. Se da un lato si è svolta una lettura storica, dall’altro viene affiancata una lettura critica, che mira principalmente all’analisi delle “crisi della regolarità”, cioè a quei punti in cui la struttura della griglia diviene più fragile o addirittura viene negata dall’assetto della città. Sulla scia delle riflessioni di Mario Gandelsonas sulle città americane, si è voluto a tracciare non solo un percorso analitico, ma anche una ricerca più personale, con il tentativo di indagare la città in relazione dicotomica rispetto alla sua architettura, riflettendo sul modo in cui l’una si interfaccia con l’altra in un rapporto di antagonismo che è andato crescendo giorno dopo giorno. Un rapporto di antagonismo, ma anche di inevitabile collaborazione tra le parti in un quadro che non è mai fisso e che coinvolge due elementi in continuo mutamento, genera un sistema di necessarie articolazioni, che non si presentano mai come una situazione stabile tra i due elementi, ma come una relazione tra due prassi che cambiano nel tempo. I temi progettuali chiave non sono frutto di una decisione preventiva, ma, viceversa, emergono come risultato della prima parte di questo lavoro. La ricerca è stata così indirizzata verso alcune questioni che sono apparse più rilevanti anche in ai fini progettuali: l’infrastruttura, approfondita mediante il caso studio del Port Authority Bus Terminal di Pier Luigi Nervi; l’edilizia sociale, che si presenta sempre con tipologie anomale rispetto al blocco newyorkese, come nel caso di Stuyvesant Town; ed i margini della città, ex zone industriali, oggi al centro del dibattito sulla riqualificazione di aree a forte potenziale naturalistico. I punti qui esaminati evidenziano e sintetizzano le problematiche del Waste Transfer previsto dall’amministrazione newyorkese nell’area sud di Manhattan.
Resumo:
Nel presente elaborato si è affrontato il tema dell’utilizzo di biogas per la produzione di energia elettrica e termica; in primo luogo è stata fatta una panoramica sulla diffusione degli impianti di digestione anaerobica in Europa e in Italia, con particolare attenzione alla logica degli incentivi volti alla promozione delle fonti rinnovabili. Il biogas presenta infatti il duplice vantaggio di inserirsi sia nell’ottica del “Pacchetto Clima-Energia” volto alla riduzione di consumi energetici da fonti fossili, sia nella migliore gestione dei rifiuti organici volta alla riduzione del conferimento in discarica. L’allineamento degli incentivi italiani con quelli europei, prevista dal Decreto Ministeriale 6 luglio 2012, presuppone un’espansione del settore biogas più oculata e meno speculativa di quella degli ultimi anni: inoltre la maggiore incentivazione all’utilizzo di rifiuti come materia prima per la produzione di biogas, comporta l’ulteriore vantaggio di utilizzare, per la produzione di energia e compost di qualità, materia organica che nel peggiore dei casi sarebbe inviata in discarica. Il progetto oggetto di studio nasce dalla necessità di trattare una quantità superiore di Frazione Organica di Rifiuti Solidi Urbani da R.D, a fronte di una riduzione drastica delle quantità di rifiuti indifferenziati conferiti ai siti integrati di trattamento di rifiuti non pericolosi. La modifica nella gestione integrata dei rifiuti prevista dal progetto comporta un aumento di efficienza del sito, con una drastica riduzione dei sovvalli conferiti a discariche terze, inoltre si ha una produzione di energia elettrica e termica annua in grado di soddisfare gli autoconsumi del sito e di generare un surplus di elettricità da cedere in rete. Nel contesto attuale è perciò conveniente predisporre nei siti integrati impianti per il trattamento della FORSU utilizzando le Migliori Tecniche Disponibili proposte dalle Linee Guida Italiane ed Europee, in modo tale da ottimizzare gli aspetti ambientali ed economici dell’impianto. Nell’elaborato sono stati affrontati poi gli iter autorizzativi necessari per le autorizzazioni all’esercizio ed alla costruzione degli impianti biogas: a seguito di una dettagliata disamina delle procedure necessarie, si è approfondito il tema del procedimento di Valutazione di Impatto Ambientale, con particolare attenzione alla fase di Studio di Impatto Ambientale. Inserendosi il digestore in progetto in un sito già esistente, era necessario che il volume del reattore fosse compatibile con l’area disponibile nel sito stesso; il dimensionamento di larga massima, che è stato svolto nel Quadro Progettuale, è stato necessario anche per confrontare le tipologie di digestori dry e wet. A parità di rifiuto trattato il processo wet richiede una maggiore quantità di fluidi di diluizione, che dovranno essere in seguito trattati, e di un volume del digestore superiore, che comporterà un maggiore dispendio energetico per il riscaldamento della biomassa all’interno. È risultata perciò motivata la scelta del digestore dry sia grazie al minore spazio occupato dal reattore, sia dal minor consumo energetico e minor volume di reflui da trattare. Nella parte finale dell’elaborato sono stati affrontati i temi ambientali,confrontando la configurazione del sito ante operam e post operam. È evidente che la netta riduzione di frazione indifferenziata di rifiuti, non totalmente bilanciata dall’aumento di FORSU, ha consentito una riduzione di traffico veicolare indotto molto elevato, dell’ordine di circa 15 mezzi pesanti al giorno, ciò ha comportato una riduzione di inquinanti emessi sul percorso più rilevante per l’anidride carbonica che per gli altri inquinanti. Successivamente è stata valutata, in modo molto conservativo, l’entità delle emissioni ai camini dell’impianto di cogenerazione. Essendo queste l’unico fattore di pressione sull’ambiente circostante, è stato valutato tramite un modello semplificato di dispersione gaussiana, che il loro contributo alla qualità dell’aria è generalmente una frazione modesta del valore degli SQA. Per gli ossidi di azoto è necessario un livello di attenzione superiore rispetto ad altri inquinanti, come il monossido di carbonio e le polveri sottili, in quanto i picchi di concentrazione sottovento possono raggiungere frazioni elevate (fino al 60%) del valore limite orario della qualità dell’aria, fissato dal D.Lgs 155/2010. Infine, con riferimento all’ energia elettrica producibile sono state valutate le emissioni che sarebbero generate sulla base delle prestazioni del parco elettrico nazionale: tali emissioni sono da considerare evitate in quanto l’energia prodotta nel sito in esame deriva da fonti rinnovabili e non da fonti convenzionali. In conclusione, completando il quadro di emissioni evitate e indotte dalla modifica dell’impianto, si deduce che l’impatto sull’ambiente non modificherà in maniera significativa le condizioni dell’aria nella zona, determinando una variazione percentuale rispetto agli inquinanti emessi a livello regionale inferiore all’1% per tutti gli inquinanti considerati (CO, PM10, NOX, NMCOV). Il vantaggio più significativo riguarda una riduzione di emissioni di CO2 dell’ordine delle migliaia di tonnellate all’anno; questo risultato è importante per la riduzione di emissione dei gas serra in atmosfera e risulta in accordo con la logica dell’utilizzo di biomasse per la produzione di energia. Dal presente elaborato si evince infine come l’utilizzo del biogas prodotto dalla digestione anaerobica della Frazione Organica dei Rifiuti Solidi Urbani non comporti solo un vantaggio dal punto di vista economico, grazie alla presenza degli incentivi nazionali, ma soprattutto dal punto di vista ambientale, grazie alla riduzione notevole dei gas serra in atmosfera, in accordo con gli obiettivi europei e mondiali, e grazie al recupero di rifiuti organici per la produzione di energia e compost di qualità.
Resumo:
La specificità dell'acquisizione di contenuti attraverso le interfacce digitali condanna l'agente epistemico a un'interazione frammentata, insufficiente da un punto di vista computazionale, mnemonico e temporale, rispetto alla mole informazionale oggi accessibile attraverso una qualunque implementazione della relazione uomo-computer, e invalida l'applicabilità del modello standard di conoscenza, come credenza vera e giustificata, sconfessando il concetto di credenza razionalmente fondata, per formare la quale, sarebbe invece richiesto all'agente di poter disporre appunto di risorse concettuali, computazionali e temporali inaccessibili. La conseguenza è che l'agente, vincolato dalle limitazioni ontologiche tipiche dell'interazione con le interfacce culturali, si vede costretto a ripiegare su processi ambigui, arbitrari e spesso più casuali di quanto creda, di selezione e gestione delle informazioni che danno origine a veri e propri ibridi (alla Latour) epistemologici, fatti di sensazioni e output di programmi, credenze non fondate e bit di testimonianze indirette e di tutta una serie di relazioni umano-digitali che danno adito a rifuggire in una dimensione trascendente che trova nel sacro il suo più immediato ambito di attuazione. Tutto ciò premesso, il presente lavoro si occupa di costruire un nuovo paradigma epistemologico di conoscenza proposizionale ottenibile attraverso un'interfaccia digitale di acquisizione di contenuti, fondato sul nuovo concetto di Tracciatura Digitale, definito come un un processo di acquisizione digitale di un insieme di tracce, ossia meta-informazioni di natura testimoniale. Tale dispositivo, una volta riconosciuto come un processo di comunicazione di contenuti, si baserà sulla ricerca e selezione di meta-informazioni, cioè tracce, che consentiranno l'implementazione di approcci derivati dall'analisi decisionale in condizioni di razionalità limitata, approcci che, oltre ad essere quasi mai utilizzati in tale ambito, sono ontologicamente predisposti per una gestione dell'incertezza quale quella riscontrabile nell'istanziazione dell'ibrido informazionale e che, in determinate condizioni, potranno garantire l'agente sulla bontà epistemica del contenuto acquisito.
Resumo:
Il citofluorimetro è uno strumento impiegato in biologia genetica per analizzare dei campioni cellulari: esso, analizza individualmente le cellule contenute in un campione ed estrae, per ciascuna cellula, una serie di proprietà fisiche, feature, che la descrivono. L’obiettivo di questo lavoro è mettere a punto una metodologia integrata che utilizzi tali informazioni modellando, automatizzando ed estendendo alcune procedure che vengono eseguite oggi manualmente dagli esperti del dominio nell’analisi di alcuni parametri dell’eiaculato. Questo richiede lo sviluppo di tecniche biochimiche per la marcatura delle cellule e tecniche informatiche per analizzare il dato. Il primo passo prevede la realizzazione di un classificatore che, sulla base delle feature delle cellule, classifichi e quindi consenta di isolare le cellule di interesse per un particolare esame. Il secondo prevede l'analisi delle cellule di interesse, estraendo delle feature aggregate che possono essere indicatrici di certe patologie. Il requisito è la generazione di un report esplicativo che illustri, nella maniera più opportuna, le conclusioni raggiunte e che possa fungere da sistema di supporto alle decisioni del medico/biologo.
Resumo:
L'elaborato si pone l'obiettivo di indagare il complesso quadro delle molestie in famiglia e sul lavoro nell'ordinamento italiano e di effettuare una comparazione con un ordinamento appartenente alla stessa tradizione giuridica, l'ordinamento francese. Nel corso dell'esposizione saranno ricostruiti gli aspetti socio-criminologici e giuridici delle molestie in famiglia verso i soggetti deboli, donne, minori, anziani o portatori di handicap, le molestie sul luogo di lavoro quali molestie sessuali e mobbing, le molestie a distanza o stalking, che per molti aspetti rappresentano un fenomeno sommerso e poco conosciuto. La tesi intende analizzare soprattutto le forme di molestie psicologiche e meno conosciute. La ricostruzione teorico-normativa degli argomenti trattati è integrata con i risultati di una ricerca quantitativa e qualitativa tratta dalla giurisprudenza dei due paesi. Il lavoro, quindi, è organizzato in due parti: la prima è incentrata sugli aspetti teorici, socio-criminologici e giuridici e la seconda è dedicata alla ricerca empirica, che è stata condotta utilizzando quali fonti di dati le sentenze della Suprema Corte di Cassazione italiana e francese.
Resumo:
The objective of this thesis was to improve the commercial CFD software Ansys Fluent to obtain a tool able to perform accurate simulations of flow boiling in the slug flow regime. The achievement of a reliable numerical framework allows a better understanding of the bubble and flow dynamics induced by the evaporation and makes possible the prediction of the wall heat transfer trends. In order to save computational time, the flow is modeled with an axisymmetrical formulation. Vapor and liquid phases are treated as incompressible and in laminar flow. By means of a single fluid approach, the flow equations are written as for a single phase flow, but discontinuities at the interface and interfacial effects need to be accounted for and discretized properly. Ansys Fluent provides a Volume Of Fluid technique to advect the interface and to map the discontinuous fluid properties throughout the flow domain. The interfacial effects are dominant in the boiling slug flow and the accuracy of their estimation is fundamental for the reliability of the solver. Self-implemented functions, developed ad-hoc, are introduced within the numerical code to compute the surface tension force and the rates of mass and energy exchange at the interface related to the evaporation. Several validation benchmarks assess the better performances of the improved software. Various adiabatic configurations are simulated in order to test the capability of the numerical framework in modeling actual flows and the comparison with experimental results is very positive. The simulation of a single evaporating bubble underlines the dominant effect on the global heat transfer rate of the local transient heat convection in the liquid after the bubble transit. The simulation of multiple evaporating bubbles flowing in sequence shows that their mutual influence can strongly enhance the heat transfer coefficient, up to twice the single phase flow value.
Resumo:
La ricerca è strutturata in due sezioni: nella prima, dopo una premessa storica sul suicidio ed una lettura dei relativi dati statistici italiani integrata dall’analisi delle principali teorie sociologiche e dei principali aspetti psicopatologici e di psicologia clinica, vengono esaminati i risultati forniti da numerosi studi scientifici sul tema complementare delle morti equivoche, con particolare riferimento alle categorie a rischio rappresentate da anziani, carcerati, piloti di aerei, soggetti dediti a pratiche di asfissia autoerotica o roulette russa, istigatori delle forze di polizia e suicida stradali. Successivamente sono esaminati gli aspetti investigativi e medico-legali in tema di suicidi e morti equivoche con particolare riferimento alla tecnica dell’autopsia psicologica analizzandone le origini ed evoluzioni, il suo ambito di utilizzo ed i relativi aspetti metodologici. Nella seconda sezione del lavoro il tema dei suicidi e delle morti equivoche viene approfondito grazie all’apporto di professionisti di discipline diverse esperti in materia di autopsia psicologica ed indagini giudiziarie. A questi è stata presentata, con l’utilizzo della tecnica qualitativa “Dephi, una iniziale ipotesi di protocollo di autopsia psicologica, con le relative modalità applicative, al fine di procedere ad una sua revisione ed adattamento alle esigenze operative italiane grazie alle specifiche esperienze professionali e multidisciplinari maturate dagli esperti. I dati raccolti hanno permesso di giungere alla formulazione di un protocollo di autopsia psicologica, basato sulla elaborazione di domande generali, specifiche e conclusive, a risposta aperta, che possono esser formulate, secondo le modalità previste, alle persone affettivamente significative per la vittima nei confronti della quale si intende procedere con tale strumento investigativo.
Resumo:
La tesi di Matteo Allodi intende analizzare alcune pratiche socio-assistenziali rivolte a minori e famiglie in difficoltà relative a progetti di accoglienza presso alcune strutture residenziali. In particolare, Matteo Allodi si sofferma su progetti di accoglienza elaborati presso alcune Comunità familiari la cui metodologia d’intervento si caratterizza per un orientamento verso un modello di lavoro sociale di tipo sussidiario nell’ottica del recupero dei legami e delle competenze genitoriali. La tesi affronta nella prima parte la dimensione teorica relativa a un approccio progettuale di intervento sociale che, mettendo al centro le relazioni dei soggetti in gioco, possa promuovere la loro attivazione in funzione della realizzazione dell’obiettivo del recupero della genitorialità. Allodi si concentra dal punto di vista teorico sulle modalità di realizzazione di un servizio alla persona guidato dal principio di sussidiarietà, ovvero orientato alla valorizzazione delle capacità riflessive degli attori. Nella seconda, parte Allodi presenta l’indagine condotta in alcune Comunità di tipo familiare di Parma. La strategia iniziale d’indagine è quella del case study. Allodi sceglie di indagare il fenomeno partendo da un’osservazione partecipata di orientamento etnometodologico integrata con interviste agli attori privilegiati. In questa fase si è proceduto a una prima ricerca qualitativa, attraverso la metodologia dello studio di caso, che ha permesso di entrare in contatto con alcune tipologie di strutture residenziali per minori al fine di completare il quadro generale del fenomeno delle Comunità familiari e impostare una prima mappatura esplorativa. La ricerca prosegue con uno studio longitudinale prospettico volto a monitorare e valutare il lavoro di rete della comunità e dei servizi, osservando principalmente la mobilitazione verso l’autonomia e l’empowerment dei soggetti (minori) e delle reti ancorate al soggetto (single case study). Si è voluto comprendere quali modalità relazionali gli attori della rete di coping mettono in gioco in funzione del “cambiamento sociale”.
Resumo:
L’approccio innovativo di questa tesi alla pianificazione ciclabile consiste nell’integrare le linee guida per la redazione di un biciplan con aspetti, metodologie e strumenti nuovi, per rendere più efficace la programmazione di interventi. I limiti del biciplan risiedono nella fase di pianificazione e di monitoraggio, quindi, nel 1° capitolo, vengono esaminate le differenze esistenti tra la normativa americana (AASHTO) e quella italiana (D.P.R. 557/99). Nel 2° capitolo vengono analizzati gli indicatori usati nella fase di monitoraggio e la loro evoluzione fino alla definizione degli attuali indici per la determinazione del LOS delle infrastrutture ciclabili: BLOS e BCI. L’analisi è integrata con le nuove applicazioni di questi indici e con lo studio del LOS de HCM 2010. BCI e BISI sono stati applicati alla rete di Bologna per risolvere problemi di pianificazione e per capire se esistessero problemi di trasferibilità. Gli indici analizzati prendono in considerazione solo il lato offerta del sistema di trasporto ciclabile; manca un giudizio sui flussi, per verificare l’efficacia delle policy. Perciò il 3° capitolo è dedicato alla metodologia sul monitoraggio dei flussi, mediante l’utilizzo di comuni traffic counter per le rilevazioni dei flussi veicolari. Dal monitoraggio è possibile ricavare informazioni sul numero di passaggi, periodi di punta, esistenza di percorsi preferiti, influenza delle condizioni climatiche, utili ai progettisti; si possono creare serie storiche di dati per controllare l’evoluzione della mobilità ciclabile e determinare l’esistenza di criticità dell’infrastruttura. L’efficacia della pianificazione ciclabile è legata al grado di soddisfazione dell’utente e all’appetibilità delle infrastrutture, perciò il progettista deve conoscere degli elementi che influenzano le scelte del ciclista. Nel 4° capitolo sono analizzate le tecniche e gli studi sulle scelte dell’itinerario dei ciclisti, e lo studio pilota fatto a Bologna per definire le variabili che influenzano le scelte dei ciclisti e il loro peso.
Resumo:
The thesis objectives are to develop new methodologies for study of the space and time variability of Italian upper ocean ecosystem through the combined use of multi-sensors satellite data and in situ observations and to identify the capability and limits of remote sensing observations to monitor the marine state at short and long time scales. Three oceanographic basins have been selected and subjected to different types of analyses. The first region is the Tyrrhenian Sea where a comparative analysis of altimetry and lagrangian measurements was carried out to study the surface circulation. The results allowed to deepen the knowledge of the Tyrrhenian Sea surface dynamics and its variability and to defined the limitations of satellite altimetry measurements to detect small scale marine circulation features. Channel of Sicily study aimed to identify the spatial-temporal variability of phytoplankton biomass and to understand the impact of the upper ocean circulation on the marine ecosystem. An combined analysis of the satellite of long term time series of chlorophyll, Sea Surface Temperature and Sea Level field data was applied. The results allowed to identify the key role of the Atlantic water inflow in modulating the seasonal variability of the phytoplankton biomass in the region. Finally, Italian coastal marine system was studied with the objective to explore the potential capability of Ocean Color data in detecting chlorophyll trend in coastal areas. The most appropriated methodology to detect long term environmental changes was defined through intercomparison of chlorophyll trends detected by in situ and satellite. Then, Italian coastal areas subject to eutrophication problems were identified. This work has demonstrated that satellites data constitute an unique opportunity to define the features and forcing influencing the upper ocean ecosystems dynamics and can be used also to monitor environmental variables capable of influencing phytoplankton productivity.