908 resultados para ciclone di tipo tropicale,predicibilità,caratteristiche termodinamiche,confronto con osservazioni
Resumo:
I moderni sistemi embedded sono equipaggiati con risorse hardware che consentono l’esecuzione di applicazioni molto complesse come il decoding audio e video. La progettazione di simili sistemi deve soddisfare due esigenze opposte. Da un lato è necessario fornire un elevato potenziale computazionale, dall’altro bisogna rispettare dei vincoli stringenti riguardo il consumo di energia. Uno dei trend più diffusi per rispondere a queste esigenze opposte è quello di integrare su uno stesso chip un numero elevato di processori caratterizzati da un design semplificato e da bassi consumi. Tuttavia, per sfruttare effettivamente il potenziale computazionale offerto da una batteria di processoriè necessario rivisitare pesantemente le metodologie di sviluppo delle applicazioni. Con l’avvento dei sistemi multi-processore su singolo chip (MPSoC) il parallel programming si è diffuso largamente anche in ambito embedded. Tuttavia, i progressi nel campo della programmazione parallela non hanno mantenuto il passo con la capacità di integrare hardware parallelo su un singolo chip. Oltre all’introduzione di multipli processori, la necessità di ridurre i consumi degli MPSoC comporta altre soluzioni architetturali che hanno l’effetto diretto di complicare lo sviluppo delle applicazioni. Il design del sottosistema di memoria, in particolare, è un problema critico. Integrare sul chip dei banchi di memoria consente dei tempi d’accesso molto brevi e dei consumi molto contenuti. Sfortunatamente, la quantità di memoria on-chip che può essere integrata in un MPSoC è molto limitata. Per questo motivo è necessario aggiungere dei banchi di memoria off-chip, che hanno una capacità molto maggiore, come maggiori sono i consumi e i tempi d’accesso. La maggior parte degli MPSoC attualmente in commercio destina una parte del budget di area all’implementazione di memorie cache e/o scratchpad. Le scratchpad (SPM) sono spesso preferite alle cache nei sistemi MPSoC embedded, per motivi di maggiore predicibilità, minore occupazione d’area e – soprattutto – minori consumi. Per contro, mentre l’uso delle cache è completamente trasparente al programmatore, le SPM devono essere esplicitamente gestite dall’applicazione. Esporre l’organizzazione della gerarchia di memoria ll’applicazione consente di sfruttarne in maniera efficiente i vantaggi (ridotti tempi d’accesso e consumi). Per contro, per ottenere questi benefici è necessario scrivere le applicazioni in maniera tale che i dati vengano partizionati e allocati sulle varie memorie in maniera opportuna. L’onere di questo compito complesso ricade ovviamente sul programmatore. Questo scenario descrive bene l’esigenza di modelli di programmazione e strumenti di supporto che semplifichino lo sviluppo di applicazioni parallele. In questa tesi viene presentato un framework per lo sviluppo di software per MPSoC embedded basato su OpenMP. OpenMP è uno standard di fatto per la programmazione di multiprocessori con memoria shared, caratterizzato da un semplice approccio alla parallelizzazione tramite annotazioni (direttive per il compilatore). La sua interfaccia di programmazione consente di esprimere in maniera naturale e molto efficiente il parallelismo a livello di loop, molto diffuso tra le applicazioni embedded di tipo signal processing e multimedia. OpenMP costituisce un ottimo punto di partenza per la definizione di un modello di programmazione per MPSoC, soprattutto per la sua semplicità d’uso. D’altra parte, per sfruttare in maniera efficiente il potenziale computazionale di un MPSoC è necessario rivisitare profondamente l’implementazione del supporto OpenMP sia nel compilatore che nell’ambiente di supporto a runtime. Tutti i costrutti per gestire il parallelismo, la suddivisione del lavoro e la sincronizzazione inter-processore comportano un costo in termini di overhead che deve essere minimizzato per non comprometterre i vantaggi della parallelizzazione. Questo può essere ottenuto soltanto tramite una accurata analisi delle caratteristiche hardware e l’individuazione dei potenziali colli di bottiglia nell’architettura. Una implementazione del task management, della sincronizzazione a barriera e della condivisione dei dati che sfrutti efficientemente le risorse hardware consente di ottenere elevate performance e scalabilità. La condivisione dei dati, nel modello OpenMP, merita particolare attenzione. In un modello a memoria condivisa le strutture dati (array, matrici) accedute dal programma sono fisicamente allocate su una unica risorsa di memoria raggiungibile da tutti i processori. Al crescere del numero di processori in un sistema, l’accesso concorrente ad una singola risorsa di memoria costituisce un evidente collo di bottiglia. Per alleviare la pressione sulle memorie e sul sistema di connessione vengono da noi studiate e proposte delle tecniche di partizionamento delle strutture dati. Queste tecniche richiedono che una singola entità di tipo array venga trattata nel programma come l’insieme di tanti sotto-array, ciascuno dei quali può essere fisicamente allocato su una risorsa di memoria differente. Dal punto di vista del programma, indirizzare un array partizionato richiede che ad ogni accesso vengano eseguite delle istruzioni per ri-calcolare l’indirizzo fisico di destinazione. Questo è chiaramente un compito lungo, complesso e soggetto ad errori. Per questo motivo, le nostre tecniche di partizionamento sono state integrate nella l’interfaccia di programmazione di OpenMP, che è stata significativamente estesa. Specificamente, delle nuove direttive e clausole consentono al programmatore di annotare i dati di tipo array che si vuole partizionare e allocare in maniera distribuita sulla gerarchia di memoria. Sono stati inoltre sviluppati degli strumenti di supporto che consentono di raccogliere informazioni di profiling sul pattern di accesso agli array. Queste informazioni vengono sfruttate dal nostro compilatore per allocare le partizioni sulle varie risorse di memoria rispettando una relazione di affinità tra il task e i dati. Più precisamente, i passi di allocazione nel nostro compilatore assegnano una determinata partizione alla memoria scratchpad locale al processore che ospita il task che effettua il numero maggiore di accessi alla stessa.
Resumo:
Negli ultimi anni si sente sempre più spesso parlare di cloud computing. L'idea di fondo di questo concetto è quella di pagare per il solo effettivo utilizzo di un servizio, disponibile sulla rete, avendo a disposizione la possibilità di poter variare le proprie risorse utilizzabili a seconda delle necessità, che potrebbero essere, per esempio, applicazioni standard oppure spazi di storage per i dati. Quando cominciò a diffondersi l'utilizzo del Web, la rete Internet veniva raffigurata come una nuvola (cloud) in modo tale che si rendesse l'idea di un'entità esterna rispetto alla nostra casa o al nostro posto di lavoro, un qualcosa cioè al di fuori dei luoghi abituali in cui vengono utilizzati i PC. Tale rappresentazione diventa ora utile per poter spiegare il concetto di cloud computing. Infatti, grazie a questa nuova tecnologia, dati e programmi normalmente presenti nei nostri computer potranno ora trovarsi sul cloud. Molti reparti IT sono costretti a dedicare una parte significativa del loro tempo a progetti di implementazione, manutenzione e upgrade che spesso non danno un vero valore per l'azienda. I team di sviluppo hanno cominciato quindi a rivolgersi a questa nuova tecnologia emergente per poter minimizzare il tempo dedicato ad attività a basso valore aggiunto per potersi concentrare su quelle attività strategiche che possono fare la differenza per un'azienda. Infatti un'infrastruttura come quella cloud computing promette risparmi nei costi amministrativi che raggiungono addirittura il 50% rispetto ad un software standard di tipo client/server. Questa nuova tecnologia sta dando inizio ad un cambiamento epocale nel mondo dello sviluppo delle applicazioni. Il passaggio che si sta effettuando verso le nuove soluzioni cloud computing consente infatti di creare applicazioni solide in tempi decisamente più brevi e con costi assai inferiori, evitando inoltre tutte le seccature associate a server, soluzioni software singole, aggiornamenti, senza contare il personale necessario a gestire tutto questo. L'obiettivo di questa tesi è quello di mostrare una panoramica della progettazione e dello sviluppo di applicazioni Web nel cloud computing, analizzandone pregi e difetti in relazione alle soluzioni software attuali. Nel primo capitolo viene mostrato un quadro generale in riferimento al cloud, mettendo in luce le sue caratteristiche fondamentali, esaminando la sua architettura e valutando vantaggi e svantaggi di tale piattaforma. Nel secondo capitolo viene presentata la nuova metodologia di progettazione nel cloud, operando prima di tutto un confronto con lo sviluppo dei software standard e analizzando poi l'impatto che il cloud computing opera sulla progettazione. Nel terzo capitolo si entra nel merito della progettazione e sviluppo di applicazioni SaaS, specificandone le caratteristiche comuni ed elencando le piattaforme di rilievo allo stato dell'arte. Si entrerà inoltre nel merito della piattaforma Windows Azure. Nel quarto capitolo viene analizzato nel particolare lo sviluppo di applicazioni SaaS Multi-Tenant, specificando livelli e caratteristiche, fino a spiegare le architetture metadata-driven. Nel quinto capitolo viene operato un confronto tra due possibili approcci di sviluppo di un software cloud, analizzando nello specifico le loro differenze a livello di requisiti non funzionali. Nel sesto capitolo, infine, viene effettuata una panoramica dei costi di progettazione di un'applicazione cloud.
Resumo:
Questa relazione finale è stata frutto di un lavoro sperimentale svolto in collaborazione con un’azienda del territorio ed ha avuto come obiettivo principale quello di verificare i parametri qualitativi e compositivi di una nuova tipologia di salume in fase di studio. L’azienda sta studiando una nuova tipologia di “prodotto funzionale” addizionando componenti ad attività nutraceutica al salame ottenuto da sole parti magre di suino. L’intenzione dell’azienda è di arricchire il proprio prodotto con acidi grassi polinsaturi della serie omega-3 (da olio di semi di lino), noti per gli effetti benefici che possono esercitare sulla salute umana. A questo scopo, sul prodotto di nuova formulazione (ed in parallelo sul prodotto a formulazione classica e su un prodotto del tutto simile commercializzato da un’altra azienda) sono state effettuate sia la determinazione della percentuale lipidica, al fine di individuare il quantitativo totale di grasso, che una caratterizzazione gascromatografica del profilo quali-quantitativo in acidi grassi, analsi fondamentale per verificare la conformità con i requisiti indicati dal Reg. 1924/06, e successive modifiche, previsti per le indicazioni da inserire in etichetta (claims). Inoltre, è stato importante controllare che la concentrazione voluta di acido alfa-linolenico si mantenga tale durante tutto il periodo di shelf-life del prodotto (45 gg), perciò per soddisfare quest’ultima finalità, le analisi sono state eseguite sia all’inizio (T0) che alla fine (T1) della vita commerciale del prodotto. E’ apparso poi fondamentale monitorare un possibile decadimento/modifica della qualità organolettica del prodotto di nuova formulazione, a causa del possibile aumento di ossidabilità della frazione lipidica causata da una maggiore presenza di acidi grassi polinsaturi; ed infine, con l’intento di verificare se la nuova formulazione potesse comportare una variazione significativa delle caratteristiche sensoriali del prodotto, sono stati condotti un test descrittivo quantitativo (QDA), in grado di descrivere il profilo sensoriale del prodotto ed un test discriminante qualitativo (metodo triangolare) capace di valutare l’eventuale comparsa di cambiamenti in seguito alle modifiche apportate al prodotto; per ultimo è stato poi eseguito un test affettivo quantitativo (test di preferenza, condotto su scala di laboratorio) in grado fornire informazioni sul gradimento e di evidenziare i principali vettori che guidano le scelte dei consumatori. I risultati delle analisi chimiche e sensoriali, eseguite per soddisfare tali richieste, hanno evidenziato come il salume presenti un quantitativo di tali acidi grassi polinsaturi in linea con il claim “Alimento fonte di acidi grassi omega-3”, (requisiti indicati dal Reg. 1924/06 e successive modifiche), risultato confermato sia all’inizio che al termine della vita commerciale del prodotto (pari a circa 45 giorni). Inoltre, esso risulta essere piuttosto interessante dal punto di vista nutrizionale, poiché caratterizzato da un contenuto di grasso per la categoria dei salumi, relativamente limitato, pari a circa il 15%, con percentuali più favorevoli in acidi grassi insaturi. L’analisi del profilo sensoriale condotta ad inizio shelf-life ha invece evidenziato come questa tipologia di prodotto sia caratterizzata sia al gusto che all’olfatto da note più sapide e speziate , oltre ad una maggiore consistenza della fetta, rispetto agli altri campioni analizzati, mentre i risultati relativi al termine della shelf-life hanno evidenziato come esso tenda ad essere soggetto ad alterazioni sensoriali rilevabili proprio al termine della fase di conservazione dovute nello specifico alla formazione di composti responsabili dell’odore di rancido. I test discriminanti, condotti con giudici non allenati, non hanno invece fatto registrare differenze sensoriali significative tra il prodotto con formulazione classica e quello di nuova formulazione, confrontati ad inizio e a fine shelf-life. Riassumendo, dai risultati ottenuti da questo lavoro sperimentale, il prodotto di nuova formulazione, arricchito in acidi grassi polinsaturi della serie omega-3, risulta essere in linea con il claim “Alimento fonte di acidi grassi omega-3”, presenta in generale un contenuto di grasso totale inferiore a quello di altre tipologie di salumi ed un rapporto più favorevole tra acidi grassi insaturi e saturi, per questo può essere considerato un prodotto interessante dal punto di vista della salute e della nutrizione. Proprio per la sua formulazione più ricca in acidi grassi polinsaturi, tende però a fine shelf-life a presentare una leggera nota di rancido, riconducibile ad una maggiore ossidabilità della frazione lipidica. Tale variazione sensoriale è risultata comunque percepita solo da un panel allenato, mentre un test di tipo discriminante, condotto con giudici non allenati, non ha messo in luce differenze significative tra il salume di nuova formulazione e quello con formulazione classica né all’inizio, né al termine della vita commerciale del prodotto.
Resumo:
La vera identità di un individuo è un'informazione molto preziosa. In generale le persone non hanno particolari remore a rivelare la propria identità e il riconoscimento non rappresenta un problema; l'unica motivazione che può portare un individuo a nascondere la propria identità è l'elusione dei rilevamenti delle forze dell'ordine per un certo tipo di attività criminale. In questi casi, risulta difficile procedere al riconoscimento attraverso caratteristiche biometriche come iride o impronte digitali, in quanto la loro acquisizione presuppone un certo grado di collaborazione da parte del soggetto. Il volto, invece, può essere ottenuto in modo segreto, non solo attraverso le ben note telecamere di videosorveglianza ma anche attraverso la ricostruzione fornita da un eventuale testimone oculare che assiste all'evento criminoso. Quest'ultimo, attraverso la descrizione verbale del sospettato e con l'ausilio delle capacità di un disegnatore, fornisce un contributo per la costruzione di un identikit o sketch del soggetto, favorendo quindi il processo di individuazione dell'identità del malvivente. Solitamente, una volta prodotto lo sketch, si effettua un confronto visivo con le fotografie segnaletiche già in possesso degli inquirenti e memorizzate all'interno di un'ipotetica banca dati. Tale confronto viene eseguito 'manualmente' da persone incaricate, comportando un inevitabile spreco di tempo; dotarsi di un sistema automatico in grado di ricercare la foto del sospettato più somigliante allo sketch a partire da quelle presenti all'interno di un database potrebbe aiutare le forze di polizia in una più celere individuazione del colpevole. Purtroppo, i metodi presenti allo stato dell'arte sul riconoscimento facciale non consentono un confronto diretto: fotografia e disegno sono due rappresentazioni del volto molto differenti in termini di ricchezza di dettagli e tessitura e pertanto non direttamente confrontabili. L'obiettivo del progetto di tesi è quello di esplorare una nuova strategia di valutazione automatica della similarità tra uno sketch e una fotografia consistente principalmente in un'analisi della conformazione dei volti, mediante estrazione dei contorni e calcolo di apposite feature.
Resumo:
Il patrimonio edilizio italiano è costituito in gran parte da costruzioni che utilizzano la muratura come struttura portante. Le conoscenze acquisite negli ultimi anni nel campo dell’ingegneria hanno reso evidente come le costruzioni in muratura siano state concepite, nel corso dei secoli, senza quegli accorgimenti che l’evoluzione delle tecniche moderne di analisi ha dimostrato essere necessari. Progettare un intervento edilizio su un edificio esistente, correlato anche alla valutazione di rischio sismico, e cercare di migliorare le prestazioni dello stesso edificio, richiede partire sempre dalla conoscenza delle caratteristiche statiche intrinseche che il materiale della muratura possiede. La conoscenza della patologia comporta l'indubbio vantaggio di mettere al corrente di cosa ci si può attendere nel futuro dal punto di vista strutturale, come ad esempio che il fenomeno non sarà eliminabile all'origine e che la fessura o lesione magari si riformerà sempre, a meno d’interventi statici rilevanti e di costi ingenti. Diventa quindi di fondamentale importanza eseguire uno studio approfondito dei fenomeni strutturali anomali di deterioramento, quali lesioni, fessurazioni e simili, legati spesso a fattori ambientali, attraverso specifiche indagini diagnostiche e di monitoraggio dello stato interno delle strutture, per definire le cause responsabili e il metodo più adeguato alla tutela dei beni storici [Mastrodicasa, 1993]. Il monitoraggio dei possibili parametri che influenzano tali processi può essere continuo nel tempo o per mezzo di metodologia discontinua che prevede l’utilizzo e la ripetizione di prove non distruttive. L’elevato costo di un eventuale processo continuo ha limitato significativamente la sua applicazione, riducendo lo studio all’analisi di pochi parametri derivanti dalle prove diagnostiche e spesso non del tutto adatti alla completa analisi della struttura. Il seguente lavoro di tesi è sviluppato all’interno del progetto SmooHS (Smart Monitoring of Historic Structures) nell’ambito del 7° Programma Quadro della Commissione Europea che si pone come obiettivo lo sviluppo di strumenti di monitoraggio innovativi ‘intelligenti’ e poco invasivi e modelli di degrado e la loro sperimentazione sul campo per verificarne l’effettiva efficacia attraverso il confronto con risultati di prove non distruttive. La normativa correlata a questo studio, “Norme Tecniche per le Costruzioni’ (D.M. 14/01/2008), evidenzia come ‘La conoscenza della costruzione storica in muratura è un presupposto fondamentale sia ai fini di un’attendibile valutazione della sicurezza sismica attuale sia per la scelta di un efficace intervento di miglioramento…. Si ha pertanto la necessità di affinare tecniche di analisi e interpretazione dei manufatti storici mediante fasi conoscitive dal diverso grado di attendibilità, anche in relazione al loro impatto. La conoscenza può, infatti, essere conseguita con diversi livelli di approfondimento, in funzione dell’accuratezza delle operazioni di rilievo, delle ricerche storiche, e delle indagini sperimentali. Tali operazioni saranno funzione degli obiettivi preposti e andranno a interessare tutto o in parte l’edificio, secondo la tipologia dell’intervento previsto’. L’utilizzo di ‘Tecniche diagnostiche non distruttive di tipo indiretto, quali prove soniche e ultrasoniche’ è preferibile poiché molto promettenti e hanno il pregio di poter essere utilizzate in modo diffuso con un relativo impatto sulla costruzione e costi relativamente contenuti. La non identificazione di una procedura univoca di prove non distruttive per ciascuna tipologia edilizia rende necessario uno studio di fattibilità di diverse tecniche per valutarne l’effettiva efficacia in base al risultato atteso. L’obiettivo di questo lavoro di tesi è stato lo studio sperimentale di valutazione dell’efficacia di alcune tecniche soniche in trasmissione, tomografia e prove soniche dirette, nel monitoraggio di provini precedentemente realizzati ad hoc nei laboratori LISG (Laboratorio di Ingegneria Strutturale e Geotecnica) del DICAM dell’Università di Bologna caratterizzati da presenze di discontinuità (vacui o inclusioni di polistirolo) o materiali differenti in determinate posizioni di geometria e localizzazione nota e diverse tessiture murarie (muratura di laterizio tradizionale, muratura a sacco, inclusioni lapidee). Il capitolo 1 presenta una descrizione generale delle murature, le cause principali di deterioramento e conseguenti dissesti. Presenta inoltre una finestra sulle prove diagnostiche. Nel capitolo 2 sono riportati alcuni esempi di applicazioni di tomografia e prove soniche e sviluppi di ricerca su strutture storiche lignee e murarie eseguite recentemente. Nel capitolo 3 sono presentati i provini oggetto di studio, la loro geometria, i difetti, le sezioni. Il capitolo 4 descrive i principi fisici delle prove soniche e grandezze caratteristiche e presenta la procedura di acquisizione e relative strumentazioni. I capitoli 5 e 6 riguardano lo studio sperimentale vero e proprio ottenuto attraverso l’utilizzo di tomografia sonica e prove dirette, con descrizione delle stazioni di prova, visualizzazione dei dati in tabelle per una semplice interpretazione, loro elaborazione e susseguente analisi approfondita, con valutazione dei risultati ottenuti e debite conclusioni. Il capitolo 7 presenta un confronto delle analisi comuni a entrambe le tipologie di prove soniche, visualizzazioni di istogrammi di paragone e considerazioni deducibili.
Resumo:
Questa tesi si prefissa l’obiettivo di analizzare l'evoluzione dei sistemi FPGA nel corso degli ultimi anni, evidenziando le novità e gli aspetti tecnici più significativi che ogni famiglia ha introdotto. Il primo capitolo avrà il compito di mostrare l’architettura ed il funzionamento generale di un FPGA, cercando di illustrarne le principali caratteristiche. Il secondo capitolo introdurrà i dispositivi FPGA Xilinx e mostrerà le caratteristiche tecniche dei principali dispositivi prodotto dall'azienda. Il terzo capitolo mostrerà invece le caratteristiche tecniche degli FPGA più recenti prodotti da Altera. Il quarto ed ultimo capitolo, invece, metterà a confronto alcuni parametri fondamentali dei dispositivi descritti nell'elaborato.
Resumo:
Negli ultimi vent’anni sono state proposte al livello internazionale alcune analisi dei problemi per le scienze nella scuola e diverse strategie per l’innovazione didattica. Molte ricerche hanno fatto riferimento a una nuova nozione di literacy scientifica, quale sapere fondamentale dell’educazione, indipendente dalle scelte professionali successive alla scuola. L’ipotesi di partenza di questa ricerca sostiene che alcune di queste analisi e l’idea di una nuova literacy scientifica di tipo non-vocazionale mostrino notevoli limiti quando rapportate al contesto italiano. Le specificità di quest’ultimo sono state affrontate, innanzitutto, da un punto di vista comparativo, discutendo alcuni documenti internazionali sull’insegnamento delle scienze. Questo confronto ha messo in luce la difficoltà di ottenere un insieme di evidenze chiare e definitive sui problemi dell’educazione scientifica discussi da questi documenti, in particolare per quanto riguarda i dati sulla crisi delle vocazioni scientifiche e sull’attitudine degli studenti verso le scienze. Le raccomandazioni educative e alcuni progetti curricolari internazionali trovano degli ostacoli decisivi nella scuola superiore italiana anche a causa di specificità istituzionali, come particolari principi di selezione e l’articolazione dei vari indirizzi formativi. Il presente lavoro si è basato soprattutto su una ricostruzione storico-pedagogica del curricolo di fisica, attraverso l’analisi delle linee guida nazionali, dei programmi di studio e di alcuni rappresentativi manuali degli ultimi decenni. Questo esame del curricolo “programmato” ha messo in luce, primo, il carattere accademico della fisica liceale e la sua debole rielaborazione culturale e didattica, secondo, l’impatto di temi e problemi internazionali sui materiali didattici. Tale impatto ha prodotto dei cambiamenti sul piano delle finalità educative e degli strumenti di apprendimento incorporati nei manuali. Nonostante l’evoluzione di queste caratteristiche del curricolo, tuttavia, l’analisi delle conoscenze storico-filosofiche utilizzate dai manuali ha messo in luce la scarsa contestualizzazione culturale della fisica quale uno degli ostacoli principali per l’insegnamento di una scienza più rilevante e formativa.
Resumo:
Lo scopo di questo studio è stato quello di determinare se a lungo termine le concentrazioni sieriche di ioni nei pazienti con protesi di rivestimento d’anca metallo-metallo (MOM-HR, metal-on-metal hip resurfacing) fossero differenti da quelle valutate nei pazienti con protesi totale d’anca metallo-metallo e testa del diametro di 28 mm (MOM-THA, metal-on-metal total hip arthroplasty); inoltre è stato valutato se le concentrazioni ioniche fossero al di sopra dei valori di riferimento e se fosse possibile stabilire l’esistenza di una relazione tra sesso e concentrazioni di ioni con riferimento al tipo di impianto. Il gruppo MOM-HR era costituito da 25 pazienti mentre il gruppo MOM-THA era di 16 pazienti. Per poter ricavare i valori di riferimento sono stati reclutati 48 donatori sani. La misurazione delle concentrazioni degli ioni cobalto (Co), cromo (Cr), nickel (Ni) e molibdeno (Mo) è stata effettuata utilizzando la spettrofotometria ad assorbimento atomico su fornace di grafite. A parte il Ni, le concentrazioni di ioni nei pazienti con MOM-HR erano più elevate rispetto ai controlli. Il rilascio di ioni Cr e Co nei pazienti con MOM-HR è risultato superiore rispetto ai soggetti con MOM-THA. Da un’analisi basata sul sesso, è emerso che nelle femmine con MOM-HR i livelli di ioni Cr e Co sono risultati significativamente aumentati rispetto alle femmine con MOM-THA. Indipendentemente dal tipo di impianto, gli accoppiamenti metallo-metallo (MOM) producono concentrazioni di ioni metallici significativamente più alte a follow-up a lungo termine rispetto a quelle osservate nei soggetti sani. Un fattore che deve essere attentamente considerato nella scelta dell’impianto, e in particolar modo nei soggetti giovani, è il cospicuo rilascio di ioni Cr e Co nella popolazione femminile con MOM-HR.
Resumo:
I crescenti volumi di traffico che interessano le pavimentazioni stradali causano sollecitazioni tensionali di notevole entità che provocano danni permanenti alla sovrastruttura. Tali danni ne riducono la vita utile e comportano elevati costi di manutenzione. Il conglomerato bituminoso è un materiale multifase composto da inerti, bitume e vuoti d'aria. Le proprietà fisiche e le prestazioni della miscela dipendono dalle caratteristiche dell'aggregato, del legante e dalla loro interazione. L’approccio tradizionalmente utilizzato per la modellazione numerica del conglomerato bituminoso si basa su uno studio macroscopico della sua risposta meccanica attraverso modelli costitutivi al continuo che, per loro natura, non considerano la mutua interazione tra le fasi eterogenee che lo compongono ed utilizzano schematizzazioni omogenee equivalenti. Nell’ottica di un’evoluzione di tali metodologie è necessario superare questa semplificazione, considerando il carattere discreto del sistema ed adottando un approccio di tipo microscopico, che consenta di rappresentare i reali processi fisico-meccanici dai quali dipende la risposta macroscopica d’insieme. Nel presente lavoro, dopo una rassegna generale dei principali metodi numerici tradizionalmente impiegati per lo studio del conglomerato bituminoso, viene approfondita la teoria degli Elementi Discreti Particellari (DEM-P), che schematizza il materiale granulare come un insieme di particelle indipendenti che interagiscono tra loro nei punti di reciproco contatto secondo appropriate leggi costitutive. Viene valutata l’influenza della forma e delle dimensioni dell’aggregato sulle caratteristiche macroscopiche (tensione deviatorica massima) e microscopiche (forze di contatto normali e tangenziali, numero di contatti, indice dei vuoti, porosità, addensamento, angolo di attrito interno) della miscela. Ciò è reso possibile dal confronto tra risultati numerici e sperimentali di test triassiali condotti su provini costituiti da tre diverse miscele formate da sfere ed elementi di forma generica.
Resumo:
In questo elaborato sono descritti la progettazione e lo sviluppo di un sistema tomografico con sorgente di raggi X da 300 kV per analisi nel campo dei Beni Culturali; in particolare sono stati effettuati test preliminari sia per verificare le prestazioni del tubo a raggi X e dello schermo scintillatore sia per avere indicazioni utili alla progettazione (e conseguente costruzione) del box di rivelazione. Il collaudo della sorgente di raggi X è stato eseguito con lo studio dell'andamento della dose integrale e/o del rateo di dose in funzione della tensione, della corrente e del tempo d'irraggiamento. La caratterizzazione dello schermo scintillatore di CsI(Tl) è basata sul confronto delle sue caratteristiche con uno schermo analogo di spessore differente nelle stesse condizioni sperimentali, attraverso lo studio dei parametri standard dei dispositivi per imaging, quali la curva di risposta, il rapporto segnale-rumore e la risoluzione spaziale. Inoltre, come ulteriore test, lo schermo scintillatore è stato utilizzato per l’indagine tomografica di alcuni pani di terra contenenti olle di epoca villanoviana. Per la progettazione del box rivelatore sono state invece svolte misure di tipo ottico. I vari test svolti in laboratorio hanno dato risultati positivi e hanno dimostrato la validità dei componenti scelti per il nuovo sistema tomografico, il cui assemblaggio verrà completato a breve, essendo stata ultimata proprio in queste settimane la costruzione del box di rivelazione.
Resumo:
Prima di fornire una formulazione esaustiva dell'onda d'urto, è d'uopo definire il gas come oggetto fisico e le sue principali caratteristiche. Quanto si farà nei paragrafi seguenti quindi, sarà tentare di formalizzare il sistema gassoso dal punto di vista fisico e matematico. Sarà necessario introdurre un modello del sistema (par. 1.1) che ci permetta di lavorare a livello statistico sull'insieme di particelle che lo compongono per caratterizzare le funzioni termodinamiche classiche come medie temporali. Tramite queste considerazioni si stabilirà quali sono le quantità che si conservano nel moto di un fluido e si vedrà che tali leggi di conservazione formano un sistema di 5 equazioni differenziali parziali in 6 incognite. Tramite la linearizzazione di questo sistema si individueranno delle soluzioni chiamate onde sonore che danno un'indicazione sul modo in cui si propagano delle perturbazioni all'interno di un fluido; in particolar modo saranno utili per la determinazione del numero di Mach che rende possibile la distinzione tra due regimi: subsonico e supersonico (par. 1.2). Sarà possibile, a questo punto, indagare il fenomeno dell'onda d'urto (par. 2.1) e, nel dettaglio, due casi particolarmente utili in contesto astrofisico quali: l'onda d'urto per un gas politropico (par. 2.2), un'onda d'urto sferica che avanza verso il suo centro (2.2). Lo scopo di questa trattazione è indagare, o se non altro tentare, quanto avviene in un'esplosione di Supernova (par. 3). Relativamente a questo fenomeno, ne viene data una classificazione sommaria (par. 3.1), mentre particolare attenzione sarà rivolta alle Supernovae di tipo Ia (par. 3.2) che grazie alla loro luminosità standard costituiscono un punto di riferimento nell'Universo visibile.
Resumo:
La presente tesi intende compiere un’indagine, dal punto di vista storico-educativo, sulla storia delle case di correzione. Nello specifico si è tentato di analizzare il “caso” del Discolato bolognese, operando un confronto con altre analoghe istituzioni, sorte in due città campione, come Roma e Milano, per quanto riguarda il contesto italiano, e con la situazione inglese, per quanto riguarda il contesto internazionale. Il focus della ricerca si è incentrato sul rapporto tra devianza e internamento, considerato secondo una declinazione pedagogica. A tal proposito si è cercato di far emergere le modalità educative, nonché i principi e le finalità che sottostavano agli interventi istituzionali, non solo soffermandosi su quanto i regolamenti e gli statuti prescrivevano all’interno delle strutture correzionali, ma analizzando la reclusione nella sua effettiva organizzazione quotidiana. Per quanto riguarda la situazione bolognese è stata analizzata un’ampissima documentazione, conservata presso l’Archivio storico Provinciale di Bologna, che ha permesso di svolgere un’analisi di tipo quantitativo su un totale di 1105 individui al fine di delineare le principali caratteristiche demografiche e sociali delle persone internate nel Discolato bolognese. L’interpretazione delle fonti ha permesso anche un’indagine qualitativa, nel tentativo di ricostruire le storie di vita dei singoli reclusi. Da questa ricerca emerge un’immagine complessa delle case di correzione. Nel corso dei secoli, in modo particolare nelle diverse realtà prese in esame, esse hanno assunto caratteristiche e peculiarità differenti. La loro inefficacia fu la motivazione principale che condusse alla definitiva chiusura, quando si fece via via sempre più evidente la difficoltà a tradurre in pratica ciò che regolamenti e statuti - a livello teorico - prescrivevano.
Resumo:
Il suolo, oltre a rappresentare la base su cui si sviluppa la vita, è anche il luogo in cui si sviluppano l’industrializzazione, le reti viarie, i commerci; è quindi sottoposto a continue pressioni di tipo antropico che inducono modificazioni chimiche, biologiche della sua composizione. I metalli pesanti sono tra i più importanti inquinanti del suolo, sebbene siano presenti all’interno di esso come materiale costituente, le loro concentrazioni possono aumentare a causa di immissioni antropiche, modificando quindi la struttura del suolo rendendolo inquinato. In questo lavoro di tesi, avente come area d’interesse una porzione della provincia di Mantova precisamente ad est della città e parte della provincia di Verona e Rovigo si è voluto analizzare le caratteristiche composizionali dei suoli, al fine di determinare situazioni di arricchimento imputabili o all’uso del suolo o all’origine del sedimento. A questo proposito si è ritenuto opportuno impostare un confronto tra le concentrazioni totali dei metalli in superficie e quelle in profondità, questo non è stato sempre possibile in quanto la litologia dell’area non ha permesso, in alcuni casi, il prelievo del campione profondo. I suoli sono stati sottoposti ad analisi per il contenuto totale degli elementi maggiori e in traccia tramite analisi XRF, è stata poi eseguita la Loi per determinare la percentuale di perdita della materia organica, applicato l’indice di geoaccumolo ed infine sono state create grazie all’ausilio del software Qgis mappe di concentrazione di metalli pesanti quali Cromo, Nichel, Rame, Zinco, Piombo, Arsenico e Vanadio relative all’area di interesse di questo lavoro di tesi.
Resumo:
Quando si parla di architetture di controllo in ambito Web, il Modello ad Eventi è indubbiamente quello più diffuso e adottato. L’asincronicità e l’elevata interazione con l’utente sono caratteristiche tipiche delle Web Applications, ed un architettura ad eventi, grazie all’adozione del suo tipico ciclo di controllo chiamato Event Loop, fornisce un'astrazione semplice ma sufficientemente espressiva per soddisfare tali requisiti. La crescita di Internet e delle tecnologie ad esso associate, assieme alle recenti conquiste in ambito di CPU multi-core, ha fornito terreno fertile per lo sviluppo di Web Applications sempre più complesse. Questo aumento di complessità ha portato però alla luce alcuni limiti del modello ad eventi, ancora oggi non del tutto risolti. Con questo lavoro si intende proporre un differente approccio a questa tipologia di problemi, che superi i limiti riscontrati nel modello ad eventi proponendo un architettura diversa, nata in ambito di IA ma che sta guadagno popolarità anche nel general-purpose: il Modello ad Agenti. Le architetture ad agenti adottano un ciclo di controllo simile all’Event Loop del modello ad eventi, ma con alcune profonde differenze: il Control Loop. Lo scopo di questa tesi sarà dunque approfondire le due tipologie di architetture evidenziandone le differenze, mostrando cosa significa affrontare un progetto e lo sviluppo di una Web Applications avendo tecnologie diverse con differenti cicli di controllo, mettendo in luce pregi e difetti dei due approcci.
Resumo:
Il presente elaborato offre una panoramica generale del Remote Interpreting (RI) con l'obiettivo di strutturare un ipotetico seminario da tenere alla SLLTI (Scuola di Lingue e Letterature, Traduzione e Interpretazione, ex SSLMIT) di Forlì, in collaborazione con l'azienda VEASYT, spin-off dell’università Ca' Foscari di Venezia, per introdurre l'argomento agli studenti del corso di laurea in Interpretazione di Conferenza. A tal scopo la tesi è stata suddivisa in dieci capitoli, ognuno dei quali analizza una sfaccettatura dell'interpretazione da remoto; la prima parte verte sull'evoluzione storica delle nuove tecnologie nel mondo dell'interpretariato, con particolare attenzione all'introduzione degli impianti per l'interpretazione simultanea e delle Tecnologie dell'Informazione e della Comunicazione (TIC); si presentano inoltre i principali tipi di interpretazione a distanza, seguendo la loro comparsa in ordine cronologico, e i dispositivi necessari per effettuare una sessione di video-interpretazione. Nella seconda parte si descrivono alcuni ambiti di applicazione del RI (RI per non udenti, in ambito giuridico, in ambito medico-sanitario) e si illustra la situazione a livello mondiale passando in rassegna, a titolo di esempio, alcune aziende presenti in Australia, Stati Uniti, Germania, Austria e Gran Bretagna. Nella terza parte si presentano alcuni regolamenti e disposizioni raccomandati da associazioni di categoria e dalle istituzioni europee e si analizzano i principali vantaggi e svantaggi del RI. Nella quarta parte si mettono a confronto le caratteristiche e il tipo di formazione di un interprete che lavora in situ con quelle di un interprete che lavora a distanza, illustrando alcune strategie sviluppate dagli interpreti durante le sessioni di RI. L'ultima parte riguarda l'azienda VEASYT, la quale viene presentata come case study italiano, descrivendo la sua piattaforma per il servizio di interpretariato da remoto e la modalità di reclutamento degli interpreti. In conclusione si trova la proposta di seminario da tenere ipoteticamente alla SLLTI di Forlì, che viene articolata seguendo la successione dei capitoli precedenti.