24 resultados para shape memory alloy,shape memory polymers,effetto memoria di forma
Resumo:
L'obiettivo di questo lavoro di tesi è stato studiare le caratteristiche, le proprietà, le applicazioni con conseguenti vantaggi e svantaggi di un particolare tipo di smart materials: i materiali a memoria di forma. Il capitolo 1 tratterà delle leghe metalliche a memoria di forma, il successivo si concentrerà invece sui polimeri a memoria di forma. In ognuno di questi, relativamente al materiale affrontato, si presterà particolare attenzione agli “effetti” che contraddistinguono tali materiali da quelli più comuni, come l’effetto memoria di forma o la superelasticità. Successivamente, nei vari sottoparagrafi, l’attenzione si sposterà sulle tecniche di caratterizzazione, utili per capire le proprietà di una lega o di un polimero rispetto ad un altro, e sulle conseguenti classificazioni di entrambi. Per quanto riguarda i polimeri, si accenneranno certi parametri fondamentali di cui è necessario tener conto per conoscere bene il polimero considerato. La trattazione, in ambedue i casi, terminerà con un focus sulle applicazioni più diffuse e su quelle più interessanti di tali materiali, fornendo dettagli sulle tecnologie utilizzate e sugli stimoli dettati per eccitare i sistemi.
Resumo:
L’idea di base della seguente tesi, finora mai applicata o descritta in letteratura scientifica in base alle ricerche effettuate, è stata quella di creare un sistema di monitoraggio strutturale intelligente (Structural Health Monitoring, SHM) mediante dei sensori di deformazione a reticolo di Bragg (Fiber Bragg Grating, FBG), incollati su fili a memoria di forma inseriti a loro volta, bloccati con opportuni ancoraggi esterni, in sei travi di betoncino cementizio armato. L’obbiettivo della sperimentazione è stato quindi quello di creare delle travi intelligenti che, in condizioni di carico eccezionali e critiche (monitorate dal sensore a fibra ottica), sapessero “autoripararsi” mediante gli attuatori a memoria di forma con un processo di riscaldamento appositamente progettato.
Resumo:
UML è ampiamente considerato lo standard de facto nella fase iniziale di modellazione di sistemi software basati sul paradigma Object-Oriented; il suo diagramma delle classi è utilizzato per la rappresentazione statica strutturale di entità e relazioni che concorrono alla definizione delle specifiche del sistema; in questa fase viene utilizzato il linguaggio OCL per esprimere vincoli semantici sugli elementi del diagramma. Il linguaggio OCL però soffre della mancanza di una verifica formale sui vincoli che sono stati definiti. Il linguaggio di modellazione Alloy, inserendosi in questa fase, concettualmente può sopperire a questa mancanza perchè può descrivere con le sue entità e relazioni un diagramma delle classi UML e, tramite propri costrutti molto vicini all'espressività di OCL, può specificare vincoli semantici sul modello che verranno analizzati dal suo ambiente l'Alloy Analyzer per verificarne la consistenza. In questo lavoro di tesi dopo aver dato una panoramica generale sui costrutti principali del linguaggio Alloy, si mostrerà come è possibile creare una corrispondenza tra un diagramma delle classi UML e un modello Alloy equivalente. Si mostreranno in seguito le analogie che vi sono tra i costrutti Alloy e OCL per la definizione di vincoli formali, e le differenze, offrendo nel complesso soluzioni e tecniche che il modellatore può utilizzare per sfruttare al meglio questo nuovo approccio di verifica formale. Verranno mostrati anche i casi di incompatibilità. Infine, come complemento al lavoro svolto verrà mostrata, una tecnica per donare una dinamicità ai modelli statici Alloy.
Resumo:
Mediterranean coralligenous habitats are biogenic reefs characterised by high species diversity and built mainly by encrusting calcareous red algae, growing in dim light conditions. The global climate change and several human activities may threaten species living in these habitats, especially some of those that are considered particularly relevant in structuring and in maintaining the complexity and diversity of the benthic assemblages. Among them, the red gorgonian, Paramuricea clavata (Risso, 1826), which can form dense populations, in the last decades showed worrying mass mortality events. Understand the role of this “animal forests” in the coralligenous assemblages is of fundamental importance in order to design appropriate monitoring programs and conservation policies, especially in the marine protected areas. For this purpose, benthic assemblages were studied in presence and absence of red gorgonians at two sites at the Tremiti islands. Overall, the benthic assemblages significantly differed among sites, nevertheless in both places, clear differences between assemblages associated and not associated to the gorgonian forests were found. In particular, encrusting corallinered algae were significantly more abundant in the gorgonian understories at both sites. This result indicates that the gorgonians may promote the development of calcareous algae, which are the main builders of the coralligenous habitats. Moreover species diversity resulted higher in the assemblages associated to the gorgonians. The present study highlights the role of Paramuricea clavata as a relevant ecosystem engineer in the coralligenous habitats.
Resumo:
Riassunto Tesi Nella presente dissertazione viene esposto un esperimento condotto con la partecipazione di 13 studenti del Corso Magistrale di Interpretazione di Conferenza della Scuola di Lingue e Letterature, Traduzione e Interpretazione di Forlì al fine di comprendere se la memoria di lavoro possa essere potenziata in seguito ad un periodo di 7 mesi nel quale gli studenti si sono costantemente confrontati con lezioni ed esercizi di memorizzazione, interpretazione simultanea e interpretazione consecutiva. Nel primo capitolo, dopo una breve introduzione agli studi riguardanti la memoria, vengono descritti i diversi tipi di quest'ultima che congiuntamente alla memoria di lavoro, vengono attivati durante l'interpretazione simultanea. Nel secondo capitolo la memoria di lavoro viene messa in relazione con l'interpretazione simultanea. Oltre alle teorie più influenti circa i meccanismi cognitivi e le singole attività che sottendono il processo dell’IS, vengono esposti i principali modelli di elaborazione dell'informazione durante l'attività in questione. In chiusura del secondo capitolo, vengono esposti brevemente altri aspetti cruciali per l'interpretazione simultanea, utili al fine di comprendere le teorie sviluppate e gli studi condotti in merito: attenzione, chunking, soppressione articolatoria e ripetizione subvocalica, accennando inoltre ad un'interessante ricerca condotta per monitorare l'attivazione e il mutamento delle diverse aree cerebrali durante l'utilizzo di una lingua straniera. Nel terzo capitolo vengono passati in rassegna i principali studi empirici condotti sull'interpretazione simultanea per comprendere il comportamento della memoria di lavoro. Infine, nel quarto capitolo viene presentato l'esperimento condotto allo scopo di verificare l'ipotesi alla base della presente tesi: un aumento dell'esperienza in IS può condurre al potenziamento ML. Dopo aver esposto lo scopo, il metodo e il materiale vengono presentati i risultati che, sebbene siano stati raccolti su un campione abbastanza esiguo, vanno a confermare l'ipotesi all'origine della ricerca.
Resumo:
I copolimeri derivanti da acido lattico, hanno attirato una grande attenzione, negli ultimi decenni, per le loro caratteristiche di biodegradabilità e biocompatibilità e per questo sono stati ampiamente studiati i loro metodi di sintesi e le loro proprietà. Il lavoro presentato parte dalla sintesi dei due monomeri trimetilene carbonato (TMC) e p-diossanone (PDO) da utilizzare poi nella formazione di copolimeri a blocchi con il lattide commerciale racemo e levogiro. Tali copolimeri dovrebbero presentare la proprietà di memoria di forma. Nell’elaborato sono presentate le diverse tecniche di polimerizzazione sperimentate per ognuno dei copolimeri sintetizzati: la prima parte riguarderà i copolimeri TMC-lattide, inizialmente con lattide racemo (DL-lattide) e poi, trovato un metodo di sintesi appropriato, approfondito con esempi di polimerizzazione TMC-L-lattide; la seconda parte esaminerà invece i copolimeri PDO-DL-lattide.
Resumo:
Studi recenti hanno evidenziato cambiamenti nei ritmi alpha (8-12 Hz) e theta (4-8 Hz) in vari processi modulatori top-down e di controllo cognitivo come la memoria di lavoro (WM, working memory) e la soppressione di distrattori. I compiti di WM richiedono attenzione interna sostenuta per dare priorità alle informazioni rilevanti a discapito di quelle interferenti che distraggono dall’obiettivo. I meccanismi di attenzione in tali compiti sono associati ad aumento di potenza alpha, che riflette la funzione inibitoria di tale ritmo, in regioni che elaborano informazioni distraenti, e ad aumento di potenza theta, soprattutto in regioni frontali, che riflette funzioni di controllo cognitivo per raggiungere l’obiettivo pur in presenza di interferenze. Questo lavoro è volto ad indagare gli effetti di distrattori acustici rispetto a distrattori visivi in un compito di visual WM. A tale scopo sono stati acquisiti ed elaborati i segnali EEG di 12 soggetti volontari mentre eseguivano un compito di visual WM, in cui la fase di retention (mantenimento in memoria delle informazioni codificate) veniva interrotta con la presentazione di distrattori di due modalità sensoriali differenti (visiva e acustica), per valutare le variazioni dell’attività cerebrale in termini di ritmi alpha e theta e le regioni coinvolte. Si è osservato un aumento maggiore di potenza alpha (principalmente posteriore) in presenza del distrattore acustico rispetto al visivo sia nella fase pre-distrattore che nella fase distrattore, statisticamente significativo nella fase distrattore. Si è osservato un aumento maggiore di potenza theta (principalmente frontale) in presenza del distrattore acustico rispetto al visivo in tutte le fasi del task, statisticamente significativo nella fase iniziale di retention e nella fase del distrattore. I risultati potrebbero indicare una maggiore necessità di controllo cognitivo e di protezione da stimoli interferenti in caso di distrattore acustico rispetto al visivo.
Resumo:
Con il presente studio si è inteso analizzare l’impatto dell’utilizzo di una memoria di traduzione (TM) e del post-editing (PE) di un output grezzo sul livello di difficoltà percepita e sul tempo necessario per ottenere un testo finale di alta qualità. L’esperimento ha coinvolto sei studenti, di madrelingua italiana, del corso di Laurea Magistrale in Traduzione Specializzata dell’Università di Bologna (Vicepresidenza di Forlì). I partecipanti sono stati divisi in tre coppie, a ognuna delle quali è stato assegnato un estratto di comunicato stampa in inglese. Per ogni coppia, ad un partecipante è stato chiesto di tradurre il testo in italiano usando la TM all’interno di SDL Trados Studio 2011. All’altro partecipante è stato chiesto di fare il PE completo in italiano dell’output grezzo ottenuto da Google Translate. Nei casi in cui la TM o l’output non contenevano traduzioni (corrette), i partecipanti avrebbero potuto consultare Internet. Ricorrendo ai Think-aloud Protocols (TAPs), è stato chiesto loro di riflettere a voce alta durante lo svolgimento dei compiti. È stato quindi possibile individuare i problemi traduttivi incontrati e i casi in cui la TM e l’output grezzo hanno fornito soluzioni corrette; inoltre, è stato possibile osservare le strategie traduttive impiegate, per poi chiedere ai partecipanti di indicarne la difficoltà attraverso interviste a posteriori. È stato anche misurato il tempo impiegato da ogni partecipante. I dati sulla difficoltà percepita e quelli sul tempo impiegato sono stati messi in relazione con il numero di soluzioni corrette rispettivamente fornito da TM e output grezzo. È stato osservato che usare la TM ha comportato un maggior risparmio di tempo e che, al contrario del PE, ha portato a una riduzione della difficoltà percepita. Il presente studio si propone di aiutare i futuri traduttori professionisti a scegliere strumenti tecnologici che gli permettano di risparmiare tempo e risorse.
Resumo:
L'efficienza dei computer ha un limite inferiore dettato dal principio di Landauer. La distruzione di una qualsiasi informazione ha un costo energetico per la dissipazione dei bit che la formavano. L'unico modo per aggirare il principio di Landauer è attraverso la reversibilità. Questa tecnica di computazione ci permette di eseguire un programma senza dover distruggere informazioni e quindi, senza dissipare bit. Molti algoritmi ai giorni nostri hanno un grande impatto energetico sul mondo, ed uno di questi è SHA256, l'algoritmo usato nella block-chain di Bitcoin. Questa tesi si pone l'obbiettivo di analizzare il consumo energetico e di memoria di una implementazione di SHA256 reversibile ideale.
Resumo:
La valutazione del segnale elettroencefalografico acquisito durante compiti di Working Memory è utile per indagare regioni e meccanismi cerebrali alla base della capacità di immagazzinare le informazioni provenienti dall’ambiente rilevanti per il task da svolgere e di inibire stimoli irrilevanti/distraenti. In questo lavoro di Tesi è stato condotto uno studio su 13 volontari che hanno svolto un compito di memoria di lavoro visiva, consistente di prove ripetute (trial) ognuna composta di diverse fasi: Encoding (memorizzazione del memory set), Retention (mantenimento in memoria) in cui si mostra un distrattore, che può essere weak (poco interferente) o strong (maggiormente interferente). Ciascun trial termina con la comparsa della Probe, a cui il soggetto deve rispondere indicando se apparteneva o meno al memory set. Durante il task è stato acquisito il segnale EEG da 64 elettrodi, ed analizzato per indagare i potenziali evocati (ERPs) e la sincronizzazione/desincronizzazione in banda alpha (8-12 Hz) e theta (4-8 Hz) correlata agli stimoli visivi; è stata svolta anche un’analisi preliminare ricostruendo l’attività delle sorgenti corticali dal segnale EEG. Dalle analisi emerge che gli ERPs sono visibili principalmente nelle fasi di Encoding e Distractor, e nelle regioni fronto-centrali e parieto-occipitali, e che nella fase di Distractor sono maggiori per distrattore weak rispetto a strong. Si conferma la natura inibitoria del ritmo alpha e il ruolo del ritmo theta nei processi cognitivi; infatti la potenza in banda alpha aumenta nella fase pre-distrattore (sia weak che strong) e la potenza in banda theta è sostenuta durante l’intero task. Non si osservano differenze in banda alpha e theta tra i due distrattori nella fase pre-distrattore, mentre si osserva una modulazione durante la presentazione del distrattore.
Resumo:
La nanotecnologia è una scienza innovativa che sviluppa e utilizza materiali di dimensioni nanometriche (< 100 nm). Lo sviluppo e il mercato delle nanoparticelle in merito alle loro interessanti proprietà chimico‐fisiche, é accompagnato da una scarsa conoscenza relativa al destino finale e agli effetti che questi nano materiali provocano nell’ ambiente [Handy et al., 2008]. La metodologia LCA (Life Cycle Assessment – Valutazione del Ciclo di Vita) è riconosciuta come lo strumento ideale per valutare e gestire gli impatti ambientali indotti dalle ENPs, nonostante non sia ancora possibile definire, in maniera precisa, un Fattore di Caratterizzazione CF per questa categoria di sostanze. Il lavoro di questa tesi ha l’obbiettivo di stimare il Fattore di Effetto EF per nanoparticelle di Diossido di Titanio (n‐TiO2) e quindi contribuire al calcolo del CF; seguendo il modello di caratterizzazione USEtox, l’EF viene calcolato sulla base dei valori di EC50 o LC50 relativi agli organismi appartenenti ai tre livelli trofici di un ecosistema acquatico (alghe, crostacei, pesci) e assume valore pari a 49,11 PAF m3/Kg. I valori tossicologici utilizzati per il calcolo del Fattore di Effetto derivano sia da un’accurata ricerca bibliografica sia dai risultati ottenuti dai saggi d’inibizione condotti con n‐TiO2 sulla specie algale Pseudokirchneriella Subcapitata. La lettura dei saggi è stata svolta applicando tre differenti metodi quali la conta cellulare al microscopio ottico (media geometrica EC50: 2,09 mg/L, (I.C.95% 1,45‐ 2,99)), l’assorbanza allo spettrofotometro (strumento non adatto alla lettura di test condotti con ENPs) e l’intensità di fluorescenza allo spettrofluorimetro (media geometrica EC50: 3,67 mg/L (I.C.95% 2,16‐6,24)), in modo tale da confrontare i risultati e valutare quale sia lo strumento più consono allo studio di saggi condotti con n‐TiO2. Nonostante la grande variabilità dei valori tossicologici e la scarsa conoscenza sui meccanismi di tossicità delle ENPs sulle specie algali, il lavoro sperimentale e la ricerca bibliografica condotta, hanno permesso di individuare alcune proprietà chimico‐fisiche delle nanoparticelle di Diossido di Titanio che sembrano essere rilevanti per la loro tossicità come la fase cristallina, le dimensioni e la foto attivazione [Vevers et al., 2008; Reeves et al., 2007]. Il lavoro sperimentale ha inoltre permesso di ampliare l’insieme di valori di EC50 finora disponibile in letteratura e di affiancare un progetto di ricerca dottorale utilizzando il Fattore di Effetto per n‐ TiO2 nel calcolo del Fattore di Caratterizzazione.
Resumo:
In questa Tesi forniamo una libreria di funzioni aritmetiche che operano in spazio logaritmico rispetto all'input. Partiamo con un'analisi dei campi in cui è necessario o conveniente porre dei limiti, in termini di spazio utilizzato, alla computazione di un determinato software. Vista la larga diffusione del Web, si ha a che fare con collezioni di dati enormi e che magari risiedono su server remoti: c'è quindi la necessità di scrivere programmi che operino su questi dati, pur non potendo questi dati entrare tutti insieme nella memoria di lavoro del programma stesso. In seguito studiamo le nozioni teoriche di Complessità, in particolare quelle legate allo spazio di calcolo, utilizzando un modello alternativo di Macchina di Turing: la Offline Turing Machine. Presentiamo quindi un nuovo “modello” di programmazione: la computazione bidirezionale, che riteniamo essere un buon modo di strutturare la computazione limitata in spazio. Forniamo poi una “guida al programmatore” per un linguaggio di recente introduzione, IntML, che permettere la realizzazione di programmi logspace mantenendo però il tradizionale stile di programmazione funzionale. Infine, per mostrare come IntML permetta concretamente di scrivere programmi limitati in spazio, realizziamo una libreria di funzioni aritmetiche che operano in spazio logaritmico. In particolare, mostriamo funzioni per calcolare divisione intera e resto sui naturali, e funzioni per confrontare, sommare e moltiplicare numeri espressi come parole binarie.
Resumo:
La tesi si colloca nell'ambito del Cloud Computing, un modello in grado di abilitare l’accesso in rete in maniera condivisa, pratica e on-demand, di diverse risorse computazionali, come potenza di calcolo o memoria di massa. Questo lavoro ha come scopo la realizzazione di una Cloud privata, per la fornitura di servizi, basata su un’architettura P2P. L’elaborato vuole studiare il caso di un sistema P2P di livello infrastruttura (IaaS) e propone la realizzazione di un prototipo capace di sostenere un insime basilare di API. Verranno utilizzati protocolli di gossip per la costruzione dei servizi fondamentali.
Resumo:
Scopo di questa tesi di laurea sperimentale (LM) è stata la produzione di geopolimeri a base metacaolinitica con una porosità controllata. Le principali tematiche affrontate sono state: -la produzione di resine geopolimeriche, studiate per individuare le condizioni ottimali ed ottenere successivamente geopolimeri con un’ultra-macro-porosità indotta; -lo studio dell’effetto della quantità dell’acqua di reazione sulla micro- e meso-porosità intrinseche della struttura geopolimerica; -la realizzazione di schiume geopolimeriche, aggiungendo polvere di Si, e lo studio delle condizioni di foaming in situ; -la preparazione di schiume ceramiche a base di allumina, consolidate per via geopolimerica. Le principali proprietà dei campioni così ottenuti (porosità, area superficiale specifica, grado di geopolimerizzazione, comportamento termico, capacità di scambio ionico sia delle resine geopolimeriche che delle schiume, ecc.) sono state caratterizzate approfonditamente. Le principali evidenze sperimentali riscontrate sono: A)Effetto dell’acqua di reazione: la porosità intrinseca del geopolimero aumenta, sia come quantità che come dimensione, all’aumentare del contenuto di acqua. Un’eccessiva diluizione porta ad una minore formazione di nuclei con l’ottenimento di nano-precipitati di maggior dimensioni. Nelle schiume geopolimeriche, l’acqua gioca un ruolo fondamentale nell’espansione: deve essere presente un equilibrio ottimale tra la pressione esercitata dall’H2 e la resistenza opposta dalla parete del poro in formazione. B)Effetto dell’aggiunta di silicio metallico: un elevato contenuto di silicio influenza negativamente la reazione di geopolimerizzazione, in particolare quando associato a più elevate temperature di consolidamento (80°C), determinando una bassa geopolimerizzazione nei campioni. C)Effetto del grado di geopolimerizzazione e della micro- e macro-struttura: un basso grado di geopolimerizzazione diminuisce l’accessibilità della matrice geopolimerica determinata per scambio ionico e la porosità intrinseca determinata per desorbimento di N2. Il grado di geopolimerizzazione influenza anche le proprietà termiche: durante i test dilatometrici, se il campione non è completamente geopolimerizzato, si ha un’espansione che termina con la sinterizzazione e nell’intervallo tra i 400 e i 600 °C è presente un flesso, attribuibile alla transizione vetrosa del silicato di potassio non reagito. Le prove termiche evidenziano come la massima temperatura di utilizzo delle resine geopolimeriche sia di circa 800 °C.