551 resultados para intelligenza artificiale, test di Turing
Resumo:
La tesi si propone di investigare, mediante un approccio puramente quantitativo, il contenuto informativo e la morfologia della lingua del manoscritto di Voynich (VMS), noto per essere redatto in un alfabeto sconosciuto e tuttora non decodificato. Per prima cosa, a partire dal concetto di entropia, sviluppato nel contesto della teoria della informazione, si costruisce una misura del contenuto informativo di un testo (misura di Montemurro-Zanette); quindi, si presentano diversi esperimenti in cui viene misurata l'informazione di testi sottoposti a trasformazioni linguistiche di vario genere(lemmatizzazione, traduzione, eccetera). In particolare, l'applicazione al VMS di questa misura unita ad altre tecniche, ci permette di indagare la struttura tematica del manoscritto e le relazioni tra i suoi contenuti, verificando che esiste una continuità semantica tra pagine consecutive appartenenti a una stessa sezione. La grande quantità di hapax nel manoscritto ci porta poi a considerazioni di tipo morfologico: suggerisce infatti che la lingua del manoscritto sia particolarmente flessiva. La ricerca, in particolare, di sequenze di hapax consecutivi, ci porta a identificare -verosimilmente- alcuni nomi propri. Proprio per approfondire la morfologia della lingua si costruisce infine un grafo linguistico basato sostanzialmente sulla distanza di Hamming; confrontando la topologia di questi grafi per alcune lingue e per la lingua del VMS si osserva che quest'ultimo si distingue per maggiore densità e connessione. Traendo le conclusioni, i forti indizi a favore della presenza di un contenuto informativo nel testo confermano l'ipotesi che questo sia scritto in una vera lingua. Tuttavia, data la notevole semplicità delle regole di costruzione morfologiche, a nostro parere non sembra assimilabile ad una lingua naturale conosciuta, ma piuttosto ad una artificiale, creata appositamente per questo testo.
Resumo:
Del granulato di ossido di stronzio (anche nella formula carbonato) è stato testato come nuovo possibile materiale di utilizzo per la cattura ad alta temperatura di diossido di carbonio da effluenti gassosi di scarto. Sono stati condotti diversi esperimenti con strumentazioni già preposte, quali test termogravimetrici, microscopia elettronica (SEM) e Xray (XRD). Mentre per la sperimentazione in quantità più rilevanti di materiale è stato costruito un impianto a letto fisso ex novo. Le prove TG hanno evidenziato una capacità media di sorbente parti a circa il 5% in massa di ossido, a temperature tra i 1100°C e i 1200°C, in situazione di regime (dopo numerosi cicli di carb/calc), con una buona conservazione nel tempo delle proprietà adsorbitive, mentre per le prove a letto fisso, si è registrato un calo di valori variabile tra il 3 e il 4%, con un netto miglioramento nel caso di calcinazione in vapore surriscaldato fino al 5%. Il trattamento in vapore ha sortito l’importante effetto di calcinazione del diossido di carbonio dal sorbente, quindi facilmente separabile dal flusso in uscita, misurato tramite cattura in una soluzione di idrossido di bario. Importanti fenomeni di sintering e densificazione hanno portato ad occludere completamente la camera di reazione sviluppando notevoli sovrappressioni interne. Tali fenomeni sono stati approfonditi tramite analisi SEM e XRD. Si è constatato un aumento notevole della grandezza dei granuli in caso di trattamento in vapore con la formazione di legami stabili e con conservazione della porosità. Nel caso di trattamento senza vapore surriscaldato i granuli hanno sinterizzato tramite formazione di legami, ma sempre con conservazione della macroporosità. Il lavoro di tesi è stato inquadrato nel contesto tecnologico al riguardo le tecniche CCS esistenti ed in progetto, con un attento studio bibliografico riguardo lo stato dell’arte, impianti esistenti, costi, metodi di cattura usati, metodologie di trasporto dei gas, metodologie di stoccaggio esistenti e in progetto. Si sono considerati alcuni aspetti economici per sviluppare un modello previsionale di spesa per una possibile applicazione di cattura per un impianto di produzione energetica. Con la progettazione e dimensionamento di un sistema integrato di adsorbimento tramite l’accoppiamento di 2 reattori dedicati ai cicli di carbonatazione e calcinazione del materiale sorbente. Infine si sono considerati gli aspetti salienti dello stoccaggio del diossido di carbonio in reservoir tramite le tecniche di EOR e EGR (Enhanced Oil/Gas Recovery) utilizzando la stessa CO2 come fluido spiazzante degli idrocarburi in posto. Concludendo il lavoro di tesi e di sperimentazione ha contribuito in modo tangibile allo scopo prefissato, andando a caratterizzare un nuovo materiale per la cattura di diossido di carbonio da effluenti gassosi ad alta temperatura, ed andando a verificare un’importante fenomeno rigenerativo non previsto delle capacità sorbitive dei materiali sottoposti a test.
Resumo:
Questa tesi presenta un'analisi della community italiana di fansubbing di Italian Subs Addicted, nota come ItaSA. Dopo un'introduzione generale sul fenomeno del fansubbing, ovvero la traduzione amatoriale di sottotitoli, si passa a un'analisi della community stessa, della sua organizzazione interna e del test per diventare traduttori. Nel capitolo 4 vengono presentate le regole per la traduzione e la creazione di sottotitoli, con il supporto di screenshot di varie serie TV, e si ha la descrizione della traduzione di una puntata della serie TV "True Detective" in tempo reale. Il capitolo 5 tratta il rapporto tra gli utenti e lo staff della community, un elemento peculiare che contraddistingue il fansubbing dalla produzione di sottotitoli tradizionali. Il capitolo 6 analizza brevemente il controverso tema della legalità dei sottotitoli. Infine, nella conclusione ho inserito una questione che negli ultimi mesi è stata molto dibattuta nella community, ovvero le conseguenze dell’imminente avvento di Netflix, un servizio di TV online, sul futuro del fansubbing.
Resumo:
Tesi in azienda che verte sugli impianti di ripartizione di farmaci in asepsi e atmosfera controllata. Sono stati analizzati: norme riguardanti progettazione e installazione di impianti farmaceutici; tecnologie di ripartizione (isolatori e RABS) con riferimento all'isolatore in azienda e all'impianto HVAC asservito; la linea di ripartizione in generale (washing machine - tunnel di depirogenazione - isolatore - coding station); test SAT di convalida per l'installazione di isolatore e impianto HVAC; sviluppo e convalida del ciclo di decontaminazione con VHP; conti di ottimizzazione dell'inertizzazione della camera di riempimento.
Resumo:
Lo scopo dell'elaborato di tesi è l'analisi, progettazione e sviluppo di un prototipo di una infrastruttura cloud in grado di gestire un grande flusso di eventi generati da dispositivi mobili. Questi utilizzano informazioni come la posizione assunta e il valore dei sensori locali di cui possono essere equipaggiati al fine di realizzare il proprio funzionamento. Le informazioni così ottenute vengono trasmesse in modo da ottenere una rete di device in grado di acquisire autonomamente informazioni sull'ambiente ed auto-organizzarsi. La costruzione di tale struttura si colloca in un più ampio ambito di ricerca che punta a integrare metodi per la comunicazione ravvicinata con il cloud al fine di permettere la comunicazione tra dispositivi vicini in qualsiasi situazione che si potrebbe presentare in una situazione reale. A definire le specifiche della infrastruttura e quindi a impersonare il ruolo di committente è stato il relatore, Prof. Mirko Viroli, mentre lo sviluppo è stato portato avanti da me e dal correlatore, Ing. Pietro Brunetti. Visti gli studi precedenti riguardanti il cloud computing nell'area dei sistemi complessi distribuiti, Brunetti ha dato il maggiore contributo nella fase di analisi del problema e di progettazione mentre la parte riguardante la effettiva gestione degli eventi, le computazioni in cloud e lo storage dei dati è stata maggiormente affrontata da me. In particolare mi sono occupato dello studio e della implementazione del backend computazionale, basato sulla tecnologia Apache Storm, della componente di storage dei dati, basata su Neo4j, e della costruzione di un pannello di visualizzazione basato su AJAX e Linkurious. A questo va aggiunto lo studio su Apache Kafka, utilizzato come tecnologia per realizzare la comunicazione asincrona ad alte performance tra le componenti. Si è reso necessario costruire un simulatore al fine di condurre i test per verificare il funzionamento della infrastruttura prototipale e per saggiarne l'effettiva scalabilità, considerato il potenziale numero di dispositivi da sostenere che può andare dalle decine alle migliaia. La sfida più importante riguarda la gestione della vicinanza tra dispositivi e la possibilità di scalare la computazione su più macchine. Per questo motivo è stato necessario far uso di tecnologie per l'esecuzione delle operazioni di memorizzazione, calcolo e trasmissione dei dati in grado di essere eseguite su un cluster e garantire una accettabile fault-tolerancy. Da questo punto di vista i lavori che hanno portato alla costruzione della infrastruttura sono risultati essere un'ottima occasione per prendere familiarità con tecnologie prima sconosciute. Quasi tutte le tecnologie utilizzate fanno parte dell'ecosistema Apache e, come esposto all'interno della tesi, stanno ricevendo una grande attenzione da importanti realtà proprio in questo periodo, specialmente Apache Storm e Kafka. Il software prodotto per la costruzione della infrastruttura è completamente sviluppato in Java a cui si aggiunge la componente web di visualizzazione sviluppata in Javascript.
Resumo:
L'elettromiografia di superficie (sEMG) è la tecnica non invasiva che si occupa della misura e analisi dell'attività elettrica associata alla contrazione del muscolo scheletrico, che viene prelevata tramite elettrodi superficiali. Si vuole dimostrare come questa metodologia rappresenti un valido strumento di monitoraggio quantitativo da affiancare ad un trattamento di elettroterapia. Si sono effettuate rilevazioni elettromiografiche su sette pazienti presso centri fisioterapici e si sono estratti una serie di parametri numerici dal segnale elettromiografico (Media Lavoro, Media Riposo, Deviazione Lavoro, Deviazione Riposo, Tempo Inizio, Tempo Rilassamento, MVC, IEMG) in grado di fornire una misura oggettiva dell'andamento del percorso di riabilitazione. Con il test statistico ANOVA per misure ripetute si è visto come alcuni di questi parametri subiscono miglioramenti statisticamente significativi in seguito alla terapia. Dopo aver messo in evidenza l'impossibilità di estrarre il segnale grezzo, quindi effettuare un'analisi in frequenza, si è proposta un'elaborazione completa del segnale elettromiografico a partire da un tracciato grezzo acquisito su un soggetto sano, mostrando in particolare la possibilità di calcolare ulteriori parametri in frequenza. Si è inoltre sottolineata la necessità di ripetere uno studio analogo su un gruppo di soggetti superiore e che preveda il monitoraggio dell'impedenza di contatto elettrodo-cute.
Resumo:
Descrizione delle caratteristiche della manifattura additiva e delle principali tecniche di stampa 3d. Esempio di impiego di questa tecnica in ambito biomedico per la fabbricazione di prototipi di dispositivi pronti all'uso utilizzabili per test e studi ulteriori.
Sviluppo e caratterizzazione di materiali biomimetici e bioattivi per la rigenerazione cartilaginea.
Resumo:
In questo lavoro di tesi è stato sviluppato uno scaffold biomimetico e bioattivo per la rigenerazione cartilaginea. Questo scaffold è in grado di coordinare il processo di rigenerazione di difetti condrali e promuovere la formazione di cartilagine ialina o ‘hyaline-like’ ben integrata con l’osso subcondrale. Lo scaffold realizzato è composto da due strati, uno strato cartilagineo e uno strato calficato, al fine di mimare la complessa interfaccia presente tra la cartilagine articolare e l’osso subcondrale. Lo spessore degli strati, l’adesione tra questi e la presenza di porosità è stata valutata mediante microscopia elettronica a scansione (SEM). Sono state effettuate analisi termogravimetriche (TGA) per determinare la percentuale di acqua residua nel campione dopo il processo di liofilizzazione e il residuo minerale nel campione stesso. Nell’ottica di ottimizzazione del processo di sintesi dello scaffold è stato valutato il grado di reticolazione del campione e il tempo di degradazione. Infine, per valutare la possibilità d’impianto è stato effettuato un test d’impianto su cadavere umano durante il quale diversi campioni, con forma rotonda o quadrata, sono stati impiantati e fissati con diverse tecniche.
Resumo:
In letteratura è noto che la variabilità cinematica dei bambini durante il cammino è molto maggiore se confrontata con quella di soggetti adulti. Ciò rende difficile definire lo sviluppo del cammino basandosi sull'analisi di angoli articolari. In questo lavoro è stata valutata la traiettoria del centro di massa come possibile fattore caratterizzante la maturazione del cammino durante la crescita: l’ipotesi è che questa risulti, nei bambini, più ripetibile rispetto al pattern degli angoli articolari. È stata analizzata la cinematica del cammino di soggetti appartenenti a tre fasce di età differenti (4 anni, 6 anni, giovani adulti), mediante un sistema di stereofotogrammetria e marker riflettenti (protocollo Plug-in Gait). Lo studio è stato condotto avvalendosi di software per l’acquisizione, l’elaborazione (BTS Smart-DX) e l’analisi statistica (SPM1D) dei parametri d’interesse. La variabilità è stata analizzata secondo tre diverse modalità (Inter-subject, Intra-subject, Inter-test). È stato osservato un trend simile in termini di variabilità del centro di massa tra bambini e adulti. La variabilità cinematica degli angoli articolari è invece risultata più alta nei bambini, in maniera significativa per tutte e tre le modalità citate. L’ipotesi è stata confermata per i soggetti che hanno preso parte allo studio: i bambini, pur avendo raggiunto un relativo sviluppo del cammino, presentano una variabilità segmentale maggiore di quella degli adulti, mentre la variabilità della traiettoria del centro di massa è risultata essere simile a quella dei soggetti maturi.
Resumo:
La furfurale (FU) rappresenta una delle più importanti molecole piattaforma per la produzione di biocarburanti e prodotti chimici a partire dalle biomasse. L’elevato interesse che si nutre nei confronti di tale molecola è giustificato dall’ampio spettro di reazioni che possono essere condotte su di essa al fine di ottenere prodotti di interesse industriale, quali, ad esempio, il furfuril alcool (FAL) e il metilfurano (MFU). I processi attualmente utilizzati per la produzione di tali molecole usano H2 e costosi catalizzatori a base di metalli nobili. Un’alternativa interessante a questi processi è quella che prevede di utilizzare un alcool come fonte di idrogeno tramite un processo di H-transfer su catalizzatori a base di ossidi misti. Lo scopo di questa tesi è stata quindi la sintesi e lo studio delle proprietà catalitiche del sistema FeVO4, nella reazione di riduzione in fase gas della furfurale, usando metanolo come agente di H-transfer. Il catalizzatore è stato ottenuto mediante coprecipitazione dei precursori di Fe e V e successivamente calcinato. La caratterizzazione Raman e XRD ha confermato la bontà della procedura di sintesi. I risultati dei test catalitici hanno mostrato che nelle condizioni ottimali il sistema è altamente selettivo nella riduzione della FU a MFU, mentre i prodotti secondari sono 2-vinilfurano e 2,5-dimetilfurano. A causa della deposizione di specie carboniose sulla superficie del catalizzatore, la conversione della FU tende a diminuire col passare delle ore di reazione. Tuttavia il sistema risulta rigenerabile grazie ad un trattamento in aria a 450°C. Inoltre l’analisi XRD dei catalizzatori scaricati ha mostrato che l’ossido misto subisce un processo di riduzione a seguito dell’interazioni con il metanolo, in quanto la stechiometria Fe:V:O passa dal valore di 1:1:4 a valori di 1:1:3. Sulla base di questi dati il processo di produzione del MFU è stato ulteriormente ottimizzato effettuando un pretrattamento riduttivo del catalizzatore prima dei test catalitici.
Resumo:
Le fratture vertebrali sono tra le principali cause dell’incremento della mortalità. Queste sono dovute principalmente a traumi, tumori o particolari patologie metaboliche che colpiscono l’osso. Il tratto maggiormente interessato è quello toraco-lombare in quanto deve sopportare la maggior parte dei carichi. Risulta quindi necessario comprendere come la colonna vertebrale risponde ai carichi così da studiare e sviluppare nuovi protocolli e trattamenti per disordini del tratto spinale. Informazioni quantitative possono essere ottenute mediante test in vitro. Questi hanno alcune limitazioni dovute principalmente alla difficoltà di misurare le tensioni e le deformazioni in zone diverse dalla superficie, alla complessità e al costo delle prove. Un altro limite delle prove in vitro è rappresentato dal fatto che ciascun campione può essere testato a rottura una volta sola. Queste problematiche possono essere superate con l’utilizzo contemporaneo di modelli matematici e test in vitro. In particolare i test in vitro sono utilizzati in fase di validazione del modello matematico, ovvero nella determinazione di quanto il modello è una rappresentazione del comportamento reale che si sta simulando. Il presente lavoro di tesi si inserisce in un progetto di caratterizzazione di vertebre toraco-lombari utilizzate per la validazione di un modello agli elementi finiti. In particolare l’obiettivo dello studio è stata la realizzazione di prove meccaniche in modo da replicare l’anterior wedge fracture. Tali prove sono state effettuate presso il Laboratorio di Biomeccanica del Dipartimento di Ingegneria Industriale dell’Università di Bologna. Gli spostamenti registrati durante le prove sono stati utilizzati dal Laboratorio di Tecnologia Medica dell’Istituto Ortopedico Rizzoli come condizioni al contorno per la realizzazione di un modello FE. Una volta validato e messo a punto, il modello sarà utilizzato per valutare lo stato di salute della colonna vertebrale in vivo.
Resumo:
Nell'ottica di un futuro riprogetto, totale o parziale, del ventilatore della galleria del vento del progetto CICLoPE dell'Università di Bologna, è stato messo a punto, grazie a modelli matematici di letteratura, un algoritmo per la determinazione della geometria delle pale di un fan. La procedura si basa su ipotesi di incompressibilità e assenza di vortici di estremità ed è in grado di fornire la geometria del ventilatore una volta che sono state fissate: le condizioni richieste nella sezione di test, l'efficienza del tunnel e alcune proprietà del ventilatore stesso (ad esempio tipologia di profilo aerodinamico e numero di pale). L'algoritmo è in grado di lavorare solamente con la configurazione ventilatore seguito da profili raddrizzatori, ma è in previsione un'estensione che consentirà di studiare anche la configurazione a fan controrotanti (come quella del CICLoPE). Con questo software sono state progettate numerose soluzioni diverse per studiare il legame tra rendimento e geometria del ventilatore. Inoltre sono stati individuati i parametri che permettono di ottenere una pala con rastremazione e svergolatura trascurabili, con lo scopo di abbassare i costi del manufatto. In particolare è stato dimostrato come le configurazioni con diametro della nacelle grande (superiore al 65\% del diametro della sezione di potenza) siano particolarmente adatte a fornire rendimenti alti con la minima complicatezza della pala. Per quanto riguarda l'efficienza aerodinamica del profilo, i test comparativi indicano che questo parametro influisce relativamente poco sul rendimento del macchinario ma modifica profondamente la geometria della pala. Efficienze elevate tendono, secondo lo studio, a richiedere pale estremamente rastremate e poco svergolate; questo porta a preferire l'adozione di profili mediamente efficienti ma dall'ampio intervallo operativo in termini di angolo di attacco.
Resumo:
Analisi di un sistema per il posizionamento e la movimentazione di sensori in galleria del vento. In particolare l’analisi è stata focalizzata sul sistema di movimentazione sonde (traversing) presente nel long-pipe in CICLoPE (Center for International Cooperation in Long Pipe Experiments). La struttura menzionata nasce per far fronte ad alcuni dei limiti presenti negli attuali laboratori fluidodinamici per lo studio della turbolenza ad alti numeri di Reynolds. Uno degli obiettivi del centro è quello di caratterizzare le più piccole strutture caratteristiche della turbolenza. Al fine di permettere tale studio era necessario migliorare il traversing esistente per ottenere movimenti ad alta precisione, in modo da raggiungere lo stesso ordine di grandezza delle scale più piccole della turbolenza. Il miglioramento di tale strumentazione è stato necessario anche per fornire un valido supporto alle metodologie esistenti per la determinazione della distanza tra sonde e parete, che resta una delle difficoltà nello studio della turbolenza di parete. L’analisi del traversing, svolta attraverso più test, ha fatto emergere problemi sia nella struttura del sistema, sia nel software che gestisce il motore per la movimentazione. La riprogrammazione del software e la rettifica di alcuni componenti del sistema hanno permesso di eliminare gli errori emersi. Le piccole imprecisioni restanti durante la movimentazione, non eliminabili con un’implementazione software, verranno totalmente superate grazie all’impiego del nuovo motore dotato di un encoder rotativo che sarà in grado di retroazionare il sistema, fornendo il reale spostamento effettuato.
Resumo:
Il lavoro svolto per questa tesi è stato effettuato presso il reparto di Fisica Medica dell’Ospedale Bellaria di Bologna, e ha lo scopo di mettere in evidenza l’efficacia dell’utilizzo di pellicole Gafchromic EBT3 nei controlli di qualità effettuati sull’acceleratore lineare LINAC SynergyS per radioterapia a fasci esterni. L’utilizzo continuo e prolungato dell’acceleratore durante i trattamenti radianti può causare nel tempo una perdita della calibrazione iniziale dei suoi componenti meccanici e dosimetrici: per questo è necessario controllarne periodicamente lo stato di funzionamento. Lo scopo dei controlli di qualità è quindi quello di verificare che tale fenomeno non sia avvenuto, per garantire precisione e sicurezza durante l’irradiazione del paziente (essenziale per i trattamenti ad alta precisione come l’IMRT e il VMAT), richiedendo che il fascio erogato colpisca il tessuto malato e riducendo al minimo l’errore per evitare il danneggiamento dei tessuti sani circostanti. I test effettuati sull’acceleratore lineare rientrano nel programma di assicurazione di qualità elaborato ed implementato a cura dei reparti di Fisica Medica e Radioterapia dell' Ospedale Bellaria di Bologna. Tale programma di assicurazione di qualità, è attuato per garantire che i risultati dei test rientrino nelle tolleranze meccaniche e dosimetriche previste dal protocollo dei controlli di qualità per le prove di stato e periodiche sull’acceleratore lineare in vigore all' AUSL di Bologna. In particolare in questo lavoro di tesi sono state effettuate prove dosimetriche, quali la verifica dell’omogeneità e della simmetria del fascio radiante, e prove meccaniche quali la verifica della corrispondenza tra isocentro meccanico ed isocentro radiante. Per queste verifiche sperimentali sono state utilizzate le pellicole radiocromiche Gafchromic EBT3; si tratta di dosimetri bidimensionali particolarmente adatti alla verifica dei trattamenti ad intensità modulata (IMRT, VMAT) che consentono un’accurata stima della distribuzione e dei gradienti di dose assorbita. L'utilizzo delle pellicole Gafchromic EBT3 insieme al software FilmQA Pro si è rivelato uno strumento dosimetrico preciso, accurato e pratico per effettuare i controlli di qualità di base su un acceleratore lineare per radioterapia.
Resumo:
Dalle rilevazioni PISA condotte dall'OCSE nel 2003, gli studenti finlandesi sono risultati i migliori in Europa in capacità di lettura e competenze matematiche. Vari esperti in didattica si sono quindi interrogati cercando quali aspetti rendessero eccellente il sistema finlandese. Altri, invece, hanno sostenuto che le prove PISA rilevassero solo alcune abilità senza tener conto delle conoscenze apprese a scuola, quindi il successo finlandese potrebbe essere dovuto al caso. Infatti nei test TIMSS, gli alunni finlandesi hanno avuto risultati mediocri. La tesi cerca di spiegare i “segreti” del sistema scolastico finlandese e di confrontarlo con la scuola italiana. Sono state osservate in loco le lezioni di matematica in alcune classi campione di una scuola finlandese all’ottavo e nono anno di scolarità. Si analizza la didattica sotto diversi punti di vista e si confrontano i libri di testo finlandesi e italiani su uno specifico argomento ritenuto di cruciale importanza: i polinomi. Si evidenzia che la differenza nei risultati delle rilevazioni non dipende tanto dalle differenze dei sistemi scolastici quanto all'impostazione culturale dei giovani finlandesi.