468 resultados para traduzione_assistita tecnica microlingua
Resumo:
Questa tesi si propone di realizzare una caratterizzazione del polimero ABS ottenuto con tecnica Fused Deposition Modeling in modo da ottenere dati utili alla realizzazione di parti strutturali tramite rapid prototyping.
Resumo:
L’obiettivo di questa tesi è esfoliare mediante tecnica LPE qualche layer di grafite ed analizzare il campione ottenuto mediante la tecnica AFM. Negli studi sperimentali svolti nell’ambito di questa tesi sono state condotte tre tipologie di esperimenti: 1) analisi della grafite minerale prima del trattamento di esfoliazione; 2) esfoliazione LPE di grafite fissata su substrato di muscovite, in bagno ultrasonico con acqua bidistillata; 3) esfoliazione LPE di grafite fissata su muscovite, in bagno ultrasonico con azoto liquido. L’ultrasonicazione ha portato al distacco ed isolamento di frammenti di grafite di forma tipicamente triangolare e di dimensioni laterali micrometriche, i quali si sono depositati sul substrato di muscovite e ridepositati sulla grafite stessa. Inoltre ho osservato la presenza di diversi DLG (double-layer graphene) e addirittura la presenza di SLG (single-layer graphene) estesi alcune centinaia di nm. L’analisi AFM ha mostrato la presenza di bordi cristallografici definiti, a volte con la presenza di angoli di 120° e ha mostrato il fenomeno del “folding”.
Resumo:
Le protesi biomimetiche hanno subito negli anni innumerevoli cambiamenti dovuti al miglioramento tecnologico, che ha portato allo sviluppo di nuovi materiali sempre più biomimetici. L’utilizzo di protesi in idrossiapatite personalizzate rappresenta la scelta migliore per gli interventi di cranioplastica ricostruttiva. Ad oggi la produzione di questo dispositivo richiede lunghe fasi di lavorazione. Risulta pertanto di grande interesse trovare soluzioni innovative che permettano l’ottimizzazione dei tempi garantendo al contempo l’efficacia clinica. L’obiettivo di questo elaborato è introdurre l’utilizzo delle microonde per essiccare il semilavorato nelle fasi iniziali di produzione. Bisogna comprendere quali siano i parametri in grado di influenzare le proprietà finali del dispositivo e come modularli per guidare questi attributi verso il punto di ottimo. Si è deciso di utilizzare la tecnica del Design of Experiments a fattoriale completo come metodo per ottimizzare il processo produttivo. I fattori scelti sono stati la potenza del forno a microonde, il peso della cellulosa secca, il range di peso della matrice di cellulosa e la percentuale di essiccamento del semilavorato. Al termine dello studio è stato possibile capire come e quanto questi fattori abbiano influenzato la severità dei difetti, la porosità e le proprietà meccaniche (tensione ultima di compressione e lavoro a rottura) del prodotto finito. Lo studio ha mostrato che per garantire un basso numero di difetti associato ad una porosità in linea con le specifiche di prodotto è indicato impostare la potenza del forno a microonde sul valore di 250W e di utilizzare questo processo nella fase iniziale per essiccare al 20% i semilavorati. La conferma è stata fornita da una sperimentazione eseguita su protesi allineate ad un caso clinico reale utilizzando questo nuovo processo permettendo di ottenere un ottimo risultato in termini di qualità del prodotto finito con una bassa percentuale di scarto per difetti e porosità.
Resumo:
L’imaging ad ultrasuoni è una tecnica di indagine utilizzata comunemente per molte applicazioni diagnostiche e terapeutiche. La tecnica ha numerosi vantaggi: non è invasiva, fornisce immagini in tempo reale e l’equipaggiamento necessario è facilmente trasportabile. Le immagini ottenute con questa tecnica hanno tuttavia basso rapporto segnale rumore a causa del basso contrasto e del rumore caratteristico delle immagini ad ultrasuoni, detto speckle noise. Una corretta segmentazione delle strutture anatomiche nelle immagini ad ultrasuoni è di fondamentale importanza in molte applicazioni mediche . Nella pratica clinica l’identificazione delle strutture anatomiche è in molti casi ancora ottenuta tramite tracciamento manuale dei contorni. Questo processo richiede molto tempo e produce risultati scarsamente riproducibili e legati all’esperienza del clinico che effettua l’operazione. In ambito cardiaco l’indagine ecocardiografica è alla base dello studio della morfologia e della funzione del miocardio. I sistemi ecocardiografici in grado di acquisire in tempo reale un dato volumetrico, da pochi anni disponibili per le applicazioni cliniche, hanno dimostrato la loro superiorità rispetto all’ecocardiografia bidimensionale e vengono considerati dalla comunità medica e scientifica, la tecnica di acquisizione che nel futuro prossimo sostituirà la risonanza magnetica cardiaca. Al fine di sfruttare appieno l’informazione volumetrica contenuta in questi dati, negli ultimi anni sono stati sviluppati numerosi metodi di segmentazione automatici o semiautomatici tesi alla valutazione della volumetria del ventricolo sinistro. La presente tesi descrive il progetto, lo sviluppo e la validazione di un metodo di segmentazione ventricolare quasi automatico 3D, ottenuto integrando la teoria dei modelli level-set e la teoria del segnale monogenico. Questo approccio permette di superare i limiti dovuti alla scarsa qualità delle immagini grazie alla sostituzione dell’informazione di intensità con l’informazione di fase, che contiene tutta l’informazione strutturale del segnale.
Il processo di compostaggio - studio di un metodo alternativo di screening e valutazione del compost
Resumo:
Il processo di compostaggio è il metodo più antico ed al tempo stesso innovativo di trasformazione dei rifiuti. La trasformazione in impianti di compostaggio industriale ricrea lo stesso processo semplice ma in scala maggiore processando molte tonnellate/anno di rifiuto con particolare riguardo a quello proveniente da raccolta differenziata. Il presente elaborato, oltre ad illustrare le nuove tecnologie di produzione nelle realtà locali della zona Romagnola, ha inteso indagare un aspetto alternativo ed innovativo di valutazione del compost. A supporto di quanto già previsto alla specifica normativa di settore e nell'ottica dell'ottimizzazione del processo, è stata valutata la possibilità di uso della tecnica analitica di microestrazione in fase solida (SPME) e della tecnica strumentale con naso elettronico. Si è inteso verificare anche come l'utilizzo di carbone vegetale, aggiunto alla fase di maturazione, possa apportare un contributo significativo nel controllo delle emissioni odorigene, problematica diffusa nelle aree limitrofe ad impianti di compostaggio. L'utilizzo delle tecniche di estrazione in fase solida (SPME) ha dimostrato che durante il processo le componenti odorigene tendono a ridursi notevolmente modificandosi in modo apprezzabile e valutabile mediante analisi GC-MS. L'aggiunta di carbone vegetale alla fase di maturazione contribuisce alla riduzione delle emissioni odorigene. I risultati ottenuti evidenziano come l'utilizzo dei sistemi proposti possa portare ad un'economicità qualora si riscontrassero tempi di maturazione variabili per le tipologie di materiale trattato, riducendo così i tempi di permanenza nei tunnel di maturazione e come le tecniche SPME e naso elettronico possano essere accoppiate per ottenere risultati complementari così da costruire un'informazione complessiva completa. Possibili sviluppi dello studio potrebbero essere improntati alla verifica puntuale del grado di maturazione in relazione alla tipologia del materiale in ingresso ed alla stagionalità nonché all'utilizzo di tali tecniche ad altre matrici e nell'ambito dell'individuazione della presenza di composti indesiderati in matrici ambientali.
Resumo:
In questo lavoro viene introdotto il metodo Bootstrap, sviluppato a partire dal 1979 da Bradley Efron. Il Bootstrap è una tecnica statistica di ricampionamento basata su calcoli informatici, e quindi definita anche computer-intensive. In particolare vengono analizzati i vantaggi e gli svantaggi di tale metodo tramite esempi con set di dati reali implementati tramite il software statistico R. Tali analisi vertono su due tra i principali utilizzi del Bootstrap, la stima puntuale e la costruzione di intervalli di confidenza, basati entrambi sulla possibilità di approssimare la distribuzione campionaria di un qualsiasi stimatore, a prescindere dalla complessità di calcolo.
Resumo:
Il grafene è un cristallo bidimensionale composto da uno strato monoatomico planare di atomi di carbonio ibridizzati sp2. In ogni modo, il perfezionamento delle tecniche di produzione e di trasferimento del materiale è a tutt’oggi una attività di ricerca alla frontiera, e in questo contesto si è inserito il mio lavoro di tesi. Svolto nella sede di Bologna dell’Istituto per la Microelettronica ed i Microsistemi del Consiglio Nazionale delle Ricerche (IMM-CNR), ha avuto un duplice obiettivo. Il primo è stato quello di studiare la procedura di trasferimento su un wafer di ossido di silicio (SiO2) del grafene cresciuto per deposizione chimica da fase vapore (chemical vapor deposition) su rame normalmente impiegata in laboratorio. Il secondo è stato invece quello di proporre e verificare possibili modifiche con lo scopo di provare a risolvere uno dei problemi che ci si è trovati ad affrontare, nello specifico l’elevato numero di danni strutturali e di rotture indotti nella membrana trasferita. Dopo un capitolo iniziale di introduzione alla teoria ed alle proprietà fisiche del grafene, nel secondo verranno illustrate le tecniche principali con le quali attualmente si produce il materiale, con un focus particolare sulla chemical vapor deposition, tecnica impiegata all’IMM, e da me seguita per la produzione dei campioni da studiare. Il terzo capitolo tratterà nel dettaglio il processo di trasferimento dal substrato di crescita a quello finale, realizzato attraverso uno strato sacrificale di PMMA. Dopo una descrizione approfondita dei singoli passaggi, verrà mostrato il confronto tra i risultati ottenuti su campioni di grafene traferiti su ossido di silicio, con la tecnica inizialmente adottata e quella modificata. Come verrà discusso, nonostante non tutti problemi siano stati risolti, le modifiche apportante al processo di trasferimento hanno permesso di raggiungere l’obiettivo iniziale, cioè di migliorare in modo apprezzabile la qualità della pellicola dal punto di vista dell’integrità strutturale.
Resumo:
La geometria euclidea risulta spesso inadeguata a descrivere le forme della natura. I Frattali, oggetti interrotti e irregolari, come indica il nome stesso, sono più adatti a rappresentare la forma frastagliata delle linee costiere o altri elementi naturali. Lo strumento necessario per studiare rigorosamente i frattali sono i teoremi riguardanti la misura di Hausdorff, con i quali possono definirsi gli s-sets, dove s è la dimensione di Hausdorff. Se s non è intero, l'insieme in gioco può riconoscersi come frattale e non presenta tangenti e densità in quasi nessun punto. I frattali più classici, come gli insiemi di Cantor, Koch e Sierpinski, presentano anche la proprietà di auto-similarità e la dimensione di similitudine viene a coincidere con quella di Hausdorff. Una tecnica basata sulla dimensione frattale, detta box-counting, interviene in applicazioni bio-mediche e risulta utile per studiare le placche senili di varie specie di mammiferi tra cui l'uomo o anche per distinguere un melanoma maligno da una diversa lesione della cute.
Resumo:
Nella presente tesi, di argomento astrofisico, sono esaminati gli ammassi di galassie (galaxy clusters), ovvero gli oggetti virializzati più grandi dell’Universo. Attraverso una introduttiva analisi morfologica vengono descritte le proprietà di luminosità in banda X e radio dovute alle galassie che li compongono ed al caldo gas intergalattico (ICM IntraCluster Medium) tra queste interposto. In particolare è presa in esame l’emissione radio diffusa di natura non termica di sottostrutture del gas, note con il nome di Aloni, relitti e mini-aloni. Nei capitoli II e III l’attenzione si concentra sul non facile problema della determinazione della massa di un ammasso, proprietà che costituisce il principale oggetto di studio del presente lavoro, passando in rassegna e descrivendo i metodi più utilizzati: analisi dinamica delle galassie (equazione di Jeans ed equazione del viriale), osservazioni in banda X dell’ICM, weak lensing (WL), strong lensing (SL) ed infine WL e SL accoppiati. Una analisi critica ed un confronto tra questi metodi è sviluppata nel capitolo IV, prendendo in considerazione l’ammasso RCS2327. Il conclusivo capitolo V racchiude e collega gli argomenti delle sezioni precedenti cercando una possibile correlazione tra le proprietà emissive non termiche (in banda radio) e le masse di un campione di 28 ammassi, determinate mediante tecnica di weak lensing e strong lensing accoppiate.
Resumo:
L’obiettivo principale di questa tesi è l’implementare una nuova tecnica di verifica dosimetrica dei trattamenti radioterapici ad intensità modulata. Sono stati effettuati diversi esperimenti sul sistema dosimetrico, volti a rendere operativa la tecnica e a caratterizzare il dispositivo rivelatore. Dopo i primi capitoli introduttivi, dove viene descritto lo stato attuale della lotta ai tumori con radioterapia, si passa a descrivere le tecniche radioterapiche coinvolte nello sviluppo di questa tesi per poi dettagliare gli strumenti e i metodi con cui verranno condotti gli esperimenti e infine gli esperimenti stessi. Gli esperimenti e in generale lo sviluppo di questa tesi, sono stati effettuati presso la Azienda Ospedaliera Ospedali Riuniti Marche Nord, Pesaro.
Resumo:
Nell'ambito del presente lavoro il fenomeno di multiformità del termine si esprime in una stratificazione cognitiva riconducibile alla variazione terminologica e viene esaminato in maniera trasversale su entrambe le lingue di lavoro. La terminologia del dominio “Macchine per il riempimento” nasce sotto forma di testi scritti e orali che sono frutto sia di diversi contesti extralinguistici sia della percezione stratificata dei testi. A livello terminografico, i processi interdipendenti di produzione della terminologia stratificata e della sua percezione stratificata si concretizzano in asimmetrie cognitive. La Tesi intende registrare le asimmetrie cognitive presenti nella terminologia del dominio prescelto mediante l'impiego del modello del Dizionario Esplicativo Combinatorio (DEC). Oltre ad essere uno strumento particolarmente adatto a tal fine, il DEC si pone a base di diversi progetti nel settore del lessico specialistico fruibili sul WEB. Il presente lavoro costituisce il primo contributo scientifico elaborato in Italia di adattamento del DEC alla terminologia tecnica. Nella prima parte del lavoro si tratteggia il progetto on-line DiCoEnviro sviluppato dall'Osservatorio Linguistico Senso-Testo (OLST) dell’Università di Montreal in base al nucleo teorico e teoretico DiCo. In seguito si opera una contestualizzazione del modello DEC, sia mediante l’excursus biografico dell'autore Igor Mel'čuk sia mediante la descrizione della teoria Smysl<=>Tekst, fondante il DEC – in termini universalmente impiegabili. In seguito ancora, con la trattazione contemporanea in entrambe le lingue di lavoro, si analizzano le particolarità terminologiche del dominio in base ai testi appartenenti a diverse tipologie testuali. L'analisi porta a tratteggiare quella catena di percezione “dal produttore del macchinario all'utilizzatore diretto” che costituisce la radice delle asimmetrie cognitive-oggetto di ricerca. Sulla scorta delle asimmetrie individuate si formulano proposte di configurazione del DEC funzionali alla sua applicazione al settore terminologico. I risultati lasciano supporre che adattamenti simili a quelli proposti, mutatis mutandis, produrrebbero risultati altrettanto soddisfacenti in ciascun settore industriale.
Resumo:
Il seguente elaborato si prefigge di esporre in modo chiaro la teoria delle misure deboli in meccanica quantistica. Tale teoria ha aperto nuovi scenari all'interno dell'interpretazione fisica del mondo quantistico e allo stesso tempo ha fornito alla fisica sperimentale una nuova tecnica per esplorare i fenomeni microscopici. Il progetto si divide in tre capitoli; nel primo capitolo vengono esposti i concetti chiave della teoria della misura in meccanica quantistica utili all'introduzione del secondo capitolo, ove viene trattata la teoria delle misure deboli. Infine nell'ultimo capitolo viene esposta la parte applicativa e in particolare viene discusso un esperimento della doppia fenditura, svoltosi all'università di Toronto con l'utilizzo delle misure deboli.
Resumo:
Gli obbiettivi di questo lavoro di tesi risultano i seguenti: 1) Progettare e caratterizzare una tipologia di bundle bioriassorbibile attraverso la tecnica dell’elettrofilatura, composto da una miscela di acido poli-(L)lattico (PLLA) e collagene, che cerchi di mimare le proprietà meccaniche dei fascicoli di collagene tendineo umano ed equino; 2) Individuare una metodologia di assemblaggio multiscala dei bundle che permetta la creazione di uno scaffold in grado di mimare la struttura gerarchica di un tendine completo; 3) Applicare la filosofia traslazionale alla progettazione dello scaffold al fine di poter applicare tale tecnologia sia nell’ambito della medicina umana che in quella veterinaria, lavorando nel senso della medicina unica.
Resumo:
L'informatica e le sue tecnologie nella società moderna si riassumono spesso in un assioma fuorviante: essa, infatti, è comunemente legata al concetto che ciò che le tecnologie ci offrono può essere accessibile da tutti e sfruttato, all'interno della propria quotidianità, in modi più o meno semplici. Anche se quello appena descritto è un obiettivo fondamentale del mondo high-tech, occorre chiarire subito una questione: l'informatica non è semplicemente tutto ciò che le tecnologie ci offrono, perchè questo pensiero sommario fa presagire ad un'informatica "generalizzante"; l'informatica invece si divide tra molteplici ambiti, toccando diversi mondi inter-disciplinari. L'importanza di queste tecnologie nella società moderna deve spingerci a porre domande, riflessioni sul perchè l'informatica, in tutte le sue sfaccettature, negli ultimi decenni, ha portato una vera e propria rivoluzione nelle nostre vite, nelle nostre abitudini, e non di meno importanza, nel nostro contesto lavorativo e aziendale, e non ha alcuna intenzione (per fortuna) di fermare le proprie possibilità di sviluppo. In questo trattato ci occuperemo di definire una particolare tecnica moderna relativa a una parte di quel mondo complesso che viene definito come "Intelligenza Artificiale". L'intelligenza Artificiale (IA) è una scienza che si è sviluppata proprio con il progresso tecnologico e dei suoi potenti strumenti, che non sono solo informatici, ma soprattutto teorico-matematici (probabilistici) e anche inerenti l'ambito Elettronico-TLC (basti pensare alla Robotica): ecco l'interdisciplinarità. Concetto che è fondamentale per poi affrontare il nocciolo del percorso presentato nel secondo capitolo del documento proposto: i due approcci possibili, semantico e probabilistico, verso l'elaborazione del linguaggio naturale(NLP), branca fondamentale di IA. Per quanto darò un buono spazio nella tesi a come le tecniche di NLP semantiche e statistiche si siano sviluppate nel tempo, verrà prestata attenzione soprattutto ai concetti fondamentali di questi ambiti, perché, come già detto sopra, anche se è fondamentale farsi delle basi e conoscere l'evoluzione di queste tecnologie nel tempo, l'obiettivo è quello a un certo punto di staccarsi e studiare il livello tecnologico moderno inerenti a questo mondo, con uno sguardo anche al domani: in questo caso, la Sentiment Analysis (capitolo 3). Sentiment Analysis (SA) è una tecnica di NLP che si sta definendo proprio ai giorni nostri, tecnica che si è sviluppata soprattutto in relazione all'esplosione del fenomeno Social Network, che viviamo e "tocchiamo" costantemente. L'approfondimento centrale della tesi verterà sulla presentazione di alcuni esempi moderni e modelli di SA che riguardano entrambi gli approcci (statistico e semantico), con particolare attenzione a modelli di SA che sono stati proposti per Twitter in questi ultimi anni, valutando quali sono gli scenari che propone questa tecnica moderna, e a quali conseguenze contestuali (e non) potrebbe portare questa particolare tecnica.
Resumo:
L’argomento trattato in questo elaborato riguarda una nuova tecnologia che si sta sviluppando nel settore dell’ingegneria dei tessuti: il Bioprinting. Tale rivoluzionario approccio completamente automatizzato, consiste nell’elaborazione automatica delle immagini CAD (Computer-Aided Design) e nella fabbricazione assistita CAM (Computer-Aided Manufacturing) al fine di ricreare tessuti ed organi. Nel seguito verrà data una definizione del processo, verranno analizzate le varie fasi di laborazione, le tecniche ed i materiali utilizzati. Verranno infine riportati studi riguardanti alcune applicazioni della tecnica, quali la realizzazione di vasi sanguigni, cartilagine e pelle.