383 resultados para Test accelerati a fatica, diagramma di Wohler, kurtosis, Papoulis
Resumo:
Metastasi ossee, osteoporosi e traumi sono le cause più comuni di fratture vertebrali che possono portare a conseguenze severe. In particolare, le fratture determinate da patologie e dall’invecchiamento colpiscono soprattutto il tratto toraco-lombare che è quello che sopporta la maggior parte dei carichi. Inoltre, le attività quotidiane inducono dei complessi scenari di carico sulla colonna vertebrale. Pertanto la misura di carichi in vivo ha un grande interesse clinico e biomeccanico dal momento che può essere necessaria per studiare il mal di schiena, le fratture vertebrali, il progetto di impianti, ecc. Tuttavia, le misure in vivo hanno il limite di essere invasive. Invece, le prove sperimentali hanno il vantaggio di essere non invasive, anche se presentano alcune limitazioni intrinseche quali la difficoltà di misurare le tensioni o le deformazioni che non siano sulla superficie delle vertebre e l’aumento della complessità e del costo delle prove nel momento in cui si vogliano fare misurazioni addizionali o sperimentare condizioni diverse. In alternativa, il comportamento meccanico delle strutture ossee può essere investigato con modelli numerici agli elementi finiti validati da prove sperimentali. È in questo contesto che va inserito il presente lavoro. Questa tesi ha lo scopo di cominciare un progetto sulla caratterizzazione biomeccanica di vertebre toraciche e lombari di soggetti affetti da osteoporosi da cui si ricaveranno i dati necessari per validare un modello agli elementi finiti. In particolare, durante i test meccanici si vuole riprodurre la tipica fattura vertebrale causata dall’osteoporosi, l’anterior wedge fracture. Le prove meccaniche sono state eseguite nel Laboratorio di Biomeccanica del Dipartimento di Ingegneria Industriale dell’Università di Bologna, mentre il modello agli elementi finiti sarà sviluppato dal Laboratorio di Tecnologia Medica dell’Istituto Ortopedico Rizzoli. Una volta validato, il modello sarà utilizzato per fare simulazioni di rottura in vivo.
Resumo:
Questo lavoro è iniziato con uno studio teorico delle principali tecniche di classificazione di immagini note in letteratura, con particolare attenzione ai più diffusi modelli di rappresentazione dell’immagine, quali il modello Bag of Visual Words, e ai principali strumenti di Apprendimento Automatico (Machine Learning). In seguito si è focalizzata l’attenzione sulla analisi di ciò che costituisce lo stato dell’arte per la classificazione delle immagini, ovvero il Deep Learning. Per sperimentare i vantaggi dell’insieme di metodologie di Image Classification, si è fatto uso di Torch7, un framework di calcolo numerico, utilizzabile mediante il linguaggio di scripting Lua, open source, con ampio supporto alle metodologie allo stato dell’arte di Deep Learning. Tramite Torch7 è stata implementata la vera e propria classificazione di immagini poiché questo framework, grazie anche al lavoro di analisi portato avanti da alcuni miei colleghi in precedenza, è risultato essere molto efficace nel categorizzare oggetti in immagini. Le immagini su cui si sono basati i test sperimentali, appartengono a un dataset creato ad hoc per il sistema di visione 3D con la finalità di sperimentare il sistema per individui ipovedenti e non vedenti; in esso sono presenti alcuni tra i principali ostacoli che un ipovedente può incontrare nella propria quotidianità. In particolare il dataset si compone di potenziali ostacoli relativi a una ipotetica situazione di utilizzo all’aperto. Dopo avere stabilito dunque che Torch7 fosse il supporto da usare per la classificazione, l’attenzione si è concentrata sulla possibilità di sfruttare la Visione Stereo per aumentare l’accuratezza della classificazione stessa. Infatti, le immagini appartenenti al dataset sopra citato sono state acquisite mediante una Stereo Camera con elaborazione su FPGA sviluppata dal gruppo di ricerca presso il quale è stato svolto questo lavoro. Ciò ha permesso di utilizzare informazioni di tipo 3D, quali il livello di depth (profondità) di ogni oggetto appartenente all’immagine, per segmentare, attraverso un algoritmo realizzato in C++, gli oggetti di interesse, escludendo il resto della scena. L’ultima fase del lavoro è stata quella di testare Torch7 sul dataset di immagini, preventivamente segmentate attraverso l’algoritmo di segmentazione appena delineato, al fine di eseguire il riconoscimento della tipologia di ostacolo individuato dal sistema.
Resumo:
Il presente lavoro di tesi ha l’obiettivo di sviluppare uno strumento di aiuto alla diagnosi tumorale basato sull’analisi dell’impedenza a diverse frequenze. L’impedenza di un tessuto è intesa come l’opposizione che esso offre nell’essere attraversato da un’eccitazione in corrente o in tensione, pertanto lo strumento prevede l’applicazione di una tensione mediante elettrodi e la conseguente lettura della corrente. Da un’analisi delle tecniche utilizzate per individuare l’impedenza si è scelta un’eccitazione sinusoidale e si è quindi progettata una catena analogica di acquisizione del segnale. Si è utilizzato un microcontrollore per l’elaborazione dei dati e per inserire sistemi di controllo nel circuito . Sono stati realizzati inoltre elettrodi ad hoc per lo strumento al fine di soddisfare esigenze di dimensioni e di adattamento al progetto circuitale. Per validare il dispositivo sono state realizzate prove in laboratorio al fine di ricercare l’accuratezza delle misure, inoltre sono previsti dei test sperimentali su pazienti a breve .
Resumo:
Questo elaborato analizza alcuni dei principali metodi di estrazione del contenuto di un'immagine digitale, descrivendone il funzionamento. É possibile consultare un'ampia quantità di test effettuati su 7 dataset con caratteristiche eterogenee al fine di valutarne le performance a seconda dei casi di utilizzo.
Resumo:
Nella presente Tesi si procede alla preparazione e caratterizzazione di nuovi poliesteri alifatici a base di PLLA che offrano garanzie di completa biodegradabilità e presentino caratteristiche chimico/fisiche adeguate ad applicazioni nell’ambito dell’imballaggio alimentare. La modifica chimica del PLLA è stata realizzata per introduzione in catena di segmenti opportunamente sintetizzati che fungono da iniziatori nell’apertura dell’anello di lattide nella ROP. I copolimeri triblocco, poli(lattico)-block-poli(propilene/neopentil glicole succinato) PLLAnP(PS80NS20)m, si differenziano per il diverso rapporto in peso tra i due diversi tipi di blocco, quello hard di PLLA e quello soft di P(PS80NS20). I risultati ottenuti sono di rilevante interesse applicativo: i copolimeri presentano migliorate proprietà meccaniche rispetto al PLLA, una maggiore velocità di biodegradazione, senza che abbia avuto luogo un peggioramento della stabilità termica e delle proprietà barriera, addirittura migliore al gas test O2.
Resumo:
Progetto, sperimentazione, modifica e messa a punto di una macchina automatica basata su attuatori pneumatici comandati elettricamente tramite PLC, in grado di assemblare i ganci di chiusura per valigeria tecnica destinata ad impieghi in condizioni estreme. Discussione del progetto a partire dai disegni di massima, e descrizione delle successive modifiche progettuali e delle relative verifiche funzionali.
Resumo:
This study is based on a former student’s work, aimed at examining the influence of handedness on conference interpreting. In simultaneous interpreting (IS) both cerebral hemispheres participate in the decoding of the incoming message and in the activation of the motor functions for the production of the output signal. In right-handers language functions are mainly located in the left hemisphere, while left-handers have a more symmetrical representation of language functions. Given that with the development of interpreting skills and a long work experience the interpreters’ brain becomes less lateralized for language functions, in an initial phase left-handers may be «neurobiologically better suited for interpreting tasks» (Gran and Fabbro 1988: 37). To test this hypothesis, 9 students (5 right-handers and 4 left-handers) participated in a dual test of simultaneous and consecutive interpretation (CI) from English into Italian. The subjects were asked to interpret one text with their preferred ear and the other with the non-preferred one, since according neuropsychology aural symmetry reflects cerebral symmetry. The aim of this study was to analyze:1) the differences between the number of errors in consecutive and simultaneous interpretation with the preferred and non-preferred ear; 2) the differences in performance (in terms of number of errors) between right-handed and left-handed, both with the preferred and non-preferred ear; 3) the most frequent types of errors in right and left-handers; 4) the influence of the degree of handedness on interpreting quality. The students’ performances were analyzed in terms of errors of meaning, errors of numbers, omissions of text, omissions of numbers, inaccuracies, errors of nexus, and unfinished sentences. The results showed that: 1) in SI subjects committed fewer errors interpreting with the preferred ear, whereas in CI a slight advantage of the non-preferred ear was observed. Moreover, in CI, right-handers committed fewer mistakes with the non-preferred ear than with the preferred one. 2) The total performance of left-handers proved to be better than that of right-handers. 3) In SI left-handers committed fewer errors of meaning and fewer errors of number than right-handers, whereas in CI left-handers committed fewer errors of meaning and more errors of number than right-handers 4) As the degree of left-handedness increases, the number of errors committed also increases. Moreover, there is a statistically significant left-ear advantage for right-handers and a right-ear one for left-handers. Finally, those who interpreted with their right ear committed fewer errors of number than those who have used their left ear or both ears.
Resumo:
Lo scoppio della crisi finanziaria globale del 2007 ha rappresentato un evento epocale che ha interessato una varietà di ambiti: l’economia, la finanza, il diritto, la sociologia e anche la comunicazione. Molti linguisti e ricercatori del settore terminologico si sono concentrati sulle conseguenze di questo capovolgimento nella comunicazione che ha accolto in misura crescente anglicismi finanziari provenienti dagli Stati Uniti. I documenti istituzionali, ma soprattutto la stampa generalista e finanziaria sono dovuti ricorrere per esigenze denotative agli anglicismi al fine di illustrare le cause di questo evento e proporre delle soluzioni adeguate per attenuarne gli effetti. Dopo la crisi, infatti, le autorità di vigilanza finanziaria europee hanno iniziato a mettere in campo una serie di riforme della regolamentazione finanziaria volte a prevenire la comparsa di nuove crisi sistemiche: lo stress testing costituisce uno degli strumenti che la vigilanza europea ha adottato allo scopo di valutare lo stato di salute dei bilanci degli istituti di credito e per vagliarne la solidità e la resistenza a crisi simili a quella esplosa nel 2007. Il nostro elaborato si propone di osservare in ottica diacronica il trattamento degli anglicismi finanziari del dominio dello stress testing nella comunicazione istituzionale della Banque de France e della Banca d’Italia e nella stampa economico-finanziaria francese e italiana. Per la realizzazione di tale indagine abbiamo adottato un approccio diacronico teso all’osservazione del trattamento dell’anglicismo stress test in un arco temporale che dai primi anni Duemila arriva fino ad oggi. Ai fini dell’indagine abbiamo costruito due corpora comparabili di testi istituzionali tratti dal sito Web della Banque de France e da quello della Banca d’Italia, delimitando la ricerca al dominio dello stress testing. Abbiamo successivamente compilato due corpora comparabili con testi tratti da La Tribune e Milano Finanza per osservare il trattamento degli anglicismi finanziari in un genere testuale differente, benché specializzato. Abbiamo assunto il 2007, anno di inizio della crisi, come spartiacque, suddividendo i corpora in vari subcorpora e selezionando i testi da includervi in base alla data di pubblicazione. L’obiettivo che ci siamo prefissati è quello di osservare se nel dominio dello stress testing abbia avuto luogo un’evoluzione concettuale e se questa sia riscontrabile anche dal trattamento degli anglicismi finanziari, con un focus particolare sull’anglicismo stress test.
Resumo:
Il sistema di acquisizione dati del nuovo layer IBL di ATLAS conta attualmente 15 schede ROD attive sull’esperimento. In ognuna di queste schede sono presenti due catene JTAG per la programmazione e il test. La prima catena è facilmente accessibile da remoto tramite uno standard VME o Ethernet, mentre la seconda è accessibile solo tramite un programmatore JTAG. Accedere alla catena secondaria di tutte 15 le ROD è in primo luogo sconveniente poiché sarebbero necessari 15 programmatori diversi; in secondo luogo potrebbe risultare difficoltoso doverli gestire tutti da un unico computer. Nasce così l’esigenza di sviluppare un’elettronica aggiuntiva con funzione di controllo che riesca, tramite un unico programmatore, a distribuire un segnale JTAG in ingresso a 15 uscite selezionabili in maniera esclusiva. In questa tesi vengono illustrati i vari passaggi che hanno portato alla realizzazione del progetto ponendo attenzione alla scelta, al funzionamento e all’eventuale programmazione dei componenti elettronici che lo costituiscono. Per ogni parte è stato realizzato un ambiente hardware di prototipazione che ne ha garantito il test delle funzionalità. La scheda, basata su un microcontrollore ATmega 328-P, è attualmente in fase di completamento nel laboratorio di progettazione elettronica dell’INFN di Bologna. Il prototipo studiato e realizzato tramite il lavoro di questa tesi verrà anche utilizzato in ambiente CERN una volta che ne sarà convalidata l’affidabilità e potrà anche essere facilmente adattato a tutti gli esperimenti che usano un protocollo JTAG per la programmazione di dispositivi remoti.
Resumo:
L’esperimento ATLAS al CERN di Ginevra ha un complesso sistema di rivelatori che permettono l’acquisizione e il salvataggio di dati generati dalle collisioni di particelle fondamentali. Il rivelatore per cui trova una naturale applicazione il lavoro di questa tesi è il Pixel Detector. Esso è il più vicino alla beam pipe e si compone di più strati, il più interno dei quali, l’Insertable B-Layer (IBL), aggiunto in seguito allo shut down dell’LHC avvenuto nel 2013, ha apportato diverse innovazioni per migliorare la risoluzione spaziale delle tracce e la velocità di acquisizione dei dati. E’ stato infatti necessario modificare il sistema di acquisizione dati dell’esperimento aggiungendo nuove schede chiamate ROD, ReadOut Driver, e BOC, Back Of Crate. Entrambe le due tipologie di schede sono montate su un apparato di supporto, chiamato Crate, che le gestisce. E’ evidente che avere un sistema remoto che possa mostrare in ogni momento il regime di funzionamento del crate e che dia la possibilità di pilotarlo anche a distanza risulta estremamente utile. Così, tramite il linguaggio di programmazione LabVIEW è stato possibile progettare un sistema multipiattaforma che permette di comunicare con il crate in modo da impostare e ricevere svariati parametri di controllo del sistema di acquisizione dati, come ad esempio la temperatura, la velocità delle ventole di raffreddamento e le correnti assorbite dalle varie tensioni di alimentazione. Al momento il software viene utilizzato all’interno dell’Istituto Nazionale di Fisica Nucleare (INFN) di Bologna dove è montato un crate W-Ie-Ne-R, speculare a quello presente al CERN di Ginevra, contenente delle schede ROD e BOC in fase di test. Il progetto ed il programma sviluppato e presentato in questa tesi ha ulteriori possibilità di miglioramento e di utilizzo, dal momento che anche per altri esperimenti dell’LHC le schede di acquisizione vengono montate sullo stesso modello di crate.
Resumo:
Analisi di prestazioni di un database costruito con MongoDB e uno con Mysql residenti su due macchine virtuali uguali configurate appositamente per i test di inserimento, interrogazione e eliminazione.
Proposta metodologica per acquisizione e verificabilita di dati in rete trasmessi in maniera cifrata
Resumo:
Lo sviluppo di tecnologie informatiche e telematiche comporta di pari passo l’aumento di dispositivi informatici e di conseguenza la commissione di illeciti che richiedono l’uso di tecniche dell’informatica forense. Infatti, l'evoluzione della tecnologia ha permesso la diffusione di sistemi informatici connessi alla rete Internet sia negli uffici che nelle case di molte famiglie: il miglioramento notevole della velocità di connessione e della potenza dei dispositivi comporta l’uso di un numero sempre maggiore di applicazioni basate sul web 2.0, modificando lo schema classico d’uso del mezzo e passando da utente “lettore” a utente “produttore”: si potrebbe quasi porre la domanda “Chi non ha mai scritto un commento su un social network? Chi non ha mai caricato un video su una piattaforma di video sharing? Chi non ha mai condiviso un file su un sito?”. Il presente lavoro si propone di illustrare le problematiche dell’acquisizione del traffico di rete con particolare focus sui dati che transitano attraverso protocolli cifrati: infatti, l’acquisizione di traffico di rete si rende necessaria al fine di verificare il contenuto della comunicazione, con la conseguenza che diventa impossibile leggere il contenuto transitato in rete in caso di traffico cifrato e in assenza della chiave di decifratura. Per cui, operazioni banali nei casi di traffico in chiaro (come la ricostruzione di pagine html o fotografie) possono diventare estremamente impegnative, se non addirittura impossibile, quando non si sono previsti appositi accorgimenti e in assenza di idonei strumenti. Alla luce di tali osservazioni, il presente lavoro intende proporre una metodologia completa di acquisizione e uno strumento software che agevoli il lavoro di ricostruzione, e quindi verifica, dei dati contenuti nel traffico catturato, anche cifrato. Infine, verranno mostrati dei casi esemplificativi nei quali tale metodologia si rende opportuna (o meglio, necessaria) con test di ricostruzione dei dati eseguiti con il tool SSLTrafficReader.
Resumo:
Del granulato di ossido di stronzio (anche nella formula carbonato) è stato testato come nuovo possibile materiale di utilizzo per la cattura ad alta temperatura di diossido di carbonio da effluenti gassosi di scarto. Sono stati condotti diversi esperimenti con strumentazioni già preposte, quali test termogravimetrici, microscopia elettronica (SEM) e Xray (XRD). Mentre per la sperimentazione in quantità più rilevanti di materiale è stato costruito un impianto a letto fisso ex novo. Le prove TG hanno evidenziato una capacità media di sorbente parti a circa il 5% in massa di ossido, a temperature tra i 1100°C e i 1200°C, in situazione di regime (dopo numerosi cicli di carb/calc), con una buona conservazione nel tempo delle proprietà adsorbitive, mentre per le prove a letto fisso, si è registrato un calo di valori variabile tra il 3 e il 4%, con un netto miglioramento nel caso di calcinazione in vapore surriscaldato fino al 5%. Il trattamento in vapore ha sortito l’importante effetto di calcinazione del diossido di carbonio dal sorbente, quindi facilmente separabile dal flusso in uscita, misurato tramite cattura in una soluzione di idrossido di bario. Importanti fenomeni di sintering e densificazione hanno portato ad occludere completamente la camera di reazione sviluppando notevoli sovrappressioni interne. Tali fenomeni sono stati approfonditi tramite analisi SEM e XRD. Si è constatato un aumento notevole della grandezza dei granuli in caso di trattamento in vapore con la formazione di legami stabili e con conservazione della porosità. Nel caso di trattamento senza vapore surriscaldato i granuli hanno sinterizzato tramite formazione di legami, ma sempre con conservazione della macroporosità. Il lavoro di tesi è stato inquadrato nel contesto tecnologico al riguardo le tecniche CCS esistenti ed in progetto, con un attento studio bibliografico riguardo lo stato dell’arte, impianti esistenti, costi, metodi di cattura usati, metodologie di trasporto dei gas, metodologie di stoccaggio esistenti e in progetto. Si sono considerati alcuni aspetti economici per sviluppare un modello previsionale di spesa per una possibile applicazione di cattura per un impianto di produzione energetica. Con la progettazione e dimensionamento di un sistema integrato di adsorbimento tramite l’accoppiamento di 2 reattori dedicati ai cicli di carbonatazione e calcinazione del materiale sorbente. Infine si sono considerati gli aspetti salienti dello stoccaggio del diossido di carbonio in reservoir tramite le tecniche di EOR e EGR (Enhanced Oil/Gas Recovery) utilizzando la stessa CO2 come fluido spiazzante degli idrocarburi in posto. Concludendo il lavoro di tesi e di sperimentazione ha contribuito in modo tangibile allo scopo prefissato, andando a caratterizzare un nuovo materiale per la cattura di diossido di carbonio da effluenti gassosi ad alta temperatura, ed andando a verificare un’importante fenomeno rigenerativo non previsto delle capacità sorbitive dei materiali sottoposti a test.
Resumo:
Questa tesi presenta un'analisi della community italiana di fansubbing di Italian Subs Addicted, nota come ItaSA. Dopo un'introduzione generale sul fenomeno del fansubbing, ovvero la traduzione amatoriale di sottotitoli, si passa a un'analisi della community stessa, della sua organizzazione interna e del test per diventare traduttori. Nel capitolo 4 vengono presentate le regole per la traduzione e la creazione di sottotitoli, con il supporto di screenshot di varie serie TV, e si ha la descrizione della traduzione di una puntata della serie TV "True Detective" in tempo reale. Il capitolo 5 tratta il rapporto tra gli utenti e lo staff della community, un elemento peculiare che contraddistingue il fansubbing dalla produzione di sottotitoli tradizionali. Il capitolo 6 analizza brevemente il controverso tema della legalità dei sottotitoli. Infine, nella conclusione ho inserito una questione che negli ultimi mesi è stata molto dibattuta nella community, ovvero le conseguenze dell’imminente avvento di Netflix, un servizio di TV online, sul futuro del fansubbing.
Resumo:
Tesi in azienda che verte sugli impianti di ripartizione di farmaci in asepsi e atmosfera controllata. Sono stati analizzati: norme riguardanti progettazione e installazione di impianti farmaceutici; tecnologie di ripartizione (isolatori e RABS) con riferimento all'isolatore in azienda e all'impianto HVAC asservito; la linea di ripartizione in generale (washing machine - tunnel di depirogenazione - isolatore - coding station); test SAT di convalida per l'installazione di isolatore e impianto HVAC; sviluppo e convalida del ciclo di decontaminazione con VHP; conti di ottimizzazione dell'inertizzazione della camera di riempimento.