995 resultados para SINCRONIZAÇÃO DE CIO
Resumo:
In alcuni paesi in via di sviluppo la forte crescita demografica ha favorito l’insinuarsi di un sistema consumistico, che comporta la generazione di ingenti quantitativi di rifiuti urbani. In tali paesi il problema è aggravato dalla progressiva urbanizzazione, con la conseguente necessità di smaltire i rifiuti solidi urbani nelle immediate vicinanze delle città dove vengono prodotti in gran quantità.Storicamente nei piani di gestione dei rifiuti si è sempre tenuta in considerazione la tutela della salute pubblica e dell’ambiente; negli ultimi anni è cresciuta l’attenzione verso l’utilizzo dei rifiuti come fonte di materie prime o di energia. Ai metodi di smaltimento tradizionali, rappresentati dalle discariche e dagli impianti di incenerimento, si sono progressivamente affiancate tecniche per la valorizzazione dei rifiuti: alcune di queste differenziano i rifiuti in base al materiale di cui sono costituiti per ottenere materie prime (raccolta differenziata), altre invece ricavano energia mediante opportuni trattamenti termici(termovalorizzazione). Se l’incenerimento dei rifiuti è nato con l’obiettivo di ridurne il volume e di distruggere le sostanze pericolose in essi presenti, la termovalorizzazione comprende un secondo obiettivo, che è quello di valorizzare il potere calorifico dei rifiuti, recuperando la potenza termica sviluppata durante la combustione e utilizzandola per produrre vapore, successivamente impiegato per produrre energia elettrica o come vettore termico per il teleriscaldamento. Il presente lavoro di tesi fa seguito ad un tirocinio svolto presso il termovalorizzatore costituito dal forno F3 per rifiuti speciali anche pericolosi della società Herambiente, ubicato in via Baiona a Ravenna. L’impianto utilizza un forno a tamburo rotante, scelto proprio per la sua versatilità nell’incenerire varie tipologie di rifiuti: solidi, liquidi organici e inorganici, fluidi fangosi. Negli ultimi anni si è delineato un aumento della richiesta di incenerimento di liquidi inorganici pericolosi, che sono prodotti di scarto di processi industriali derivanti dagli impianti del polo chimico ravennate. La presenza di un’elevata quantità di liquidi inorganici in ingresso al forno fa calare l’energia disponibile per la combustione e, di conseguenza, porta ad un consumo maggiore di combustibile ausiliario (metano). Si pone un problema di ottimo e cioè, a parità di potenza elettrica prodotta, occorre trovare la portata di rifiuti inorganici da inviare al forno che limiti la portata di metano in ingresso in modo da ottenere un utile netto positivo; ovviamente la soluzione ottimale è influenzata dal prezzo del metano e dalla remunerazione che il gestore riceve per lo smaltimento dei reflui inorganici. L’impostazione del problema di ottimo richiede la soluzione dei bilanci di materia e di energia per il termovalorizzatore. L’obiettivo del lavoro di tesi è stato l’impostazione in un foglio di calcolo dei bilanci di materia e di energia per il tamburo rotante e per la camera statica di post-combustione a valle del tamburo.
Resumo:
La presente tesi si pone come obiettivo quello di risolvere una delle criticità riscontrabili nel centro storico della città di Mirandola, cioè la ridefinizione dell’isola del castello dei Pico. Grazie all’analisi storica sull’evoluzione planimetrica dell’isola ho potuto concepire le linee guida per la ricomposizione della cittadella del castello. Vengono riproposti l’asse principale trasversale che attraversava l’isola da Est a Ovest e le due piazze che si accorpano ad esso. Viene inoltre prevista una espansione del complesso del castello, facendo attenzione a richiamarne la forma e la volumetria, mantenendo l’idea di un impianto a corti. Un altro aspetto fondamentale è l’attenzione al dialogo tra le preesistenze e i nuovi edifici di progetto, che presentano in facciata una seriale ritmicità. Viene colta l’occasione di riconfigurazione dell’isola anche per soddisfare quelle che sono le richieste della popolazione, quindi all’interno vengono inserite funzioni quali un nuovo museo d’arte contemporanea, la nuova sede della scuola di musica “Andreoli”, la nuova sede dell’associazione “Terre dei Pico”, dei padiglioni per piccole esposizioni temporanee e un complesso di residenze temporanee collettive. Questo progetto vuole fornire al centro storico di Mirandola un nuovo polo in cui i giovani, ma anche la restante popolazione di Mirandola, si possano ritrovare e rispecchiare dopo la distruzione portata dall’evento del terremoto.
Resumo:
L’enigma della relazione tra Gesù e Giovanni il Battista ha da sempre stimolato l’immaginazione storica degli studiosi, suscitando una varietà di ipotesi e valutazioni, spesso assai diverse. Ciò nonostante, tutti concordano su un punto: che, almeno nella sua fase maggiore in Galilea, il ministero di Gesù fosse una realtà essenzialmente autonoma, diversa, originale e irriducibile rispetto alla missione di Giovanni. In controtendenza con questa “impostazione predefinita”, il presente studio sostiene la tesi secondo cui Gesù portò avanti la sua missione come intenzionale e programmatica prosecuzione dell’opera prematuramente interrotta di Giovanni. Nella prima parte, si esamina approfonditamente quale memoria della relazione sia conservata nelle fonti più antiche, cioè Q (qui analizzata con particolare attenzione) e Marco – a cui si aggiunge Matteo, che, in ragione dello stretto legame storico-sociologico con Q, offre un esempio illuminante di rinarrazione della memoria altamente originale eppure profondamente fedele. La conclusione è che la memoria più antica della relazione Gesù-Giovanni è profondamente segnata da aspetti di accordo, conformità e allineamento. Nella seconda parte si esaminano una serie di tradizioni che attestano che Gesù era percepito pubblicamente in relazione al Battista e che egli stesso condivideva e alimentava tale percezione riallacciandosi a lui in polemica con i suoi avversari, e dipingendolo come una figura di capitale importanza nella predicazione e nell’insegnamento a seguaci e discepoli. Infine, si argomenta l’esistenza di ampie e sostanziali aree di accordo tra i due a livello di escatologia, istruzioni etiche e programma sociale, missione penitenziale verso i peccatori e attività battesimale. L’ipotesi che Gesù portasse avanti l’attività riformatrice di Giovanni, in termini di una campagna purificatoria “penitenziale-battesimale-esorcistica” in preparazione dell’avvento di Dio, consente infine di armonizzare in modo soddisfacente i due aspetti più caratteristici dell’attività di Gesù (normalmente giustapposti, quando non contrapposti): escatologia e miracoli, il Gesù profeta e il Gesù taumaturgo.
Resumo:
La presente trattazione analizza le novità normative apportate dalle recenti direttive europee sui servizi di pagamento e sulla moneta elettronica (rispettivamente la direttiva 2007/64/CE, c.c. Payment Services Directive o PSD, e la direttiva 2009/110/CE, detta Electronic Money Directive 2 o EMD2). Al fine di incrementare la competitività dei servizi di pagamento, sono stati introdotti nuovi prestatori di servizi di pagamento, non bancari, gli Istituti di Pagamento (IP) e gli Istituti di Moneta Elettronica (IMEL), a cui è stata attribuita la possibilità di far ricorso al contratto di conto di pagamento per la gestione dei servizi di pagamento con possibilità di finanziamento agli utenti. La prima parte della presente trattazione è dedicata alla configurazione giuridica dei nuovi prestatori di servizi di pagamento, influenzante la diffusione dei pagamenti digitali e della moneta elettronica. La seconda parte è rivolta alla ricostruzione giuridica del conto di pagamento, contratto – tipo per la gestione in conto dei servizi di pagamento, ed all’analisi delle modalità di erogazione dei finanziamenti agli utenti. Le direttive predette hanno inoltre attribuito ad IP ed IMEL la facoltà di emettere le carte di pagamento a spendibilità generalizzata, ossia carte di debito e carte di credito. In quanto abilitati all’emissione di moneta elettronica, gli IMEL possono inoltre emettere i c.d. borsellini di moneta elettronica, cioè i dispositivi di memorizzazione e di movimentazione della moneta elettronica. Nella terza parte della trattazione vengono, pertanto, presi in analisi la natura di tali strumenti di pagamento e le differenze intercorrenti rispetto agli affini strumenti bancari. In particolare, ampio spazio è dedicato alla ricostruzione giuridica dei borsellini di moneta elettronica, la cui diffusione tra gli utenti potrebbe avere l’effetto di favorire la progressiva digitalizzazione dei pagamenti e la realizzazione della cashless society.
Resumo:
In questa tesi ho voluto descrivere il Timing Attack al sistema crittografico RSA, il suo funzionamento, la teoria su cui si basa, i suoi punti di forza e i punti deboli. Questo particolare tipo di attacco informatico fu presentato per la prima volta da Paul C. Kocher nel 1996 all’“RSA Data Security and CRYPTO conferences”. Nel suo articolo “Timing Attacks on Implementations of Diffie-Hellman, RSA, DSS, and Other Systems” l’autore svela una nuova possibile falla nel sistema RSA, che non dipende da debolezze del crittosistema puramente matematiche, ma da un aspetto su cui nessuno prima di allora si era mai soffermato: il tempo di esecuzione delle operazioni crittografiche. Il concetto è tanto semplice quanto geniale: ogni operazione in un computer ha una certa durata. Le variazioni dei tempi impiegati per svolgere le operazioni dal computer infatti, necessariamente dipendono dal tipo di algoritmo e quindi dalle chiavi private e dal particolare input che si è fornito. In questo modo, misurando le variazioni di tempo e usando solamente strumenti statistici, Kocher mostra che è possibile ottenere informazioni sull’implementazione del crittosistema e quindi forzare RSA e altri sistemi di sicurezza, senza neppure andare a toccare l’aspetto matematico dell’algoritmo. Di centrale importanza per questa teoria diventa quindi la statistica. Questo perché entrano in gioco molte variabili che possono influire sul tempo di calcolo nella fase di decifrazione: - La progettazione del sistema crittografico - Quanto impiega la CPU ad eseguire il processo - L’algoritmo utilizzato e il tipo di implementazione - La precisione delle misurazioni - Ecc. Per avere più possibilità di successo nell’attaccare il sistema occorre quindi fare prove ripetute utilizzando la stessa chiave e input differenti per effettuare analisi di correlazione statistica delle informazioni di temporizzazione, fino al punto di recuperare completamente la chiave privata. Ecco cosa asserisce Kocher: “Against a vulnerable system, the attack is computationally inexpensive and often requires only known ciphertext.”, cioè, contro sistemi vulnerabili, l’attacco è computazionalmente poco costoso e spesso richiede solo di conoscere testi cifrati e di ottenere i tempi necessari per la loro decifrazione.
Resumo:
La teoria dei sistemi dinamici studia l'evoluzione nel tempo dei sistemi fisici e di altra natura. Nonostante la difficoltà di assegnare con esattezza una condizione iniziale (fatto che determina un non-controllo della dinamica del sistema), gli strumenti della teoria ergodica e dello studio dell'evoluzione delle densità di probabilità iniziali dei punti del sistema (operatore di Perron-Frobenius), ci permettono di calcolare la probabilità che un certo evento E (che noi definiamo come evento raro) accada, in particolare la probabilità che il primo tempo in cui E si verifica sia n. Abbiamo studiato i casi in cui l'evento E sia definito da una successione di variabili aleatorie (prima nel caso i.i.d, poi nel caso di catene di Markov) e da una piccola regione dello spazio delle fasi da cui i punti del sistema possono fuoriuscire (cioè un buco). Dagli studi matematici sui sistemi aperti condotti da Keller e Liverani, si ricava una formula esplicita del tasso di fuga nella taglia del buco. Abbiamo quindi applicato questo metodo al caso in cui l'evento E sia definito dai punti dello spazio in cui certe osservabili assumono valore maggiore o uguale a un dato numero reale a, per ricavare l'andamento asintotico in n della probabilità che E non si sia verificato al tempo n, al primo ordine, per a che tende all'infinito.
Resumo:
Al giorno d’oggi il World Wide Web non è più un semplice strumento per la condivisione di informazioni. Le tecnologie nate nel corso dell’ultimo decennio hanno permesso lo sviluppo di vere e proprie applicazioni Web (Web App) complesse, indipendenti e multi-utente in grado di fornire le stesse funzionalità delle normali applicazioni desktop. In questa tesi verranno trattate le caratteristiche di una Web App moderna, analizzandone l’evoluzione e il processo produttivo. Particolare attenzione sarà posta alle Web App distribuite e ai meccanismi di comunicazione client-server che queste nuove tecnologie hanno reso disponibili. I WebSocket, la tecnologia di riferimento di HTML5, saranno riportati come caso di studio e relazionati allo standard precedente ad HTML5, cioè Ajax e Long Polling.
Resumo:
L’Italia è il secondo Paese più longevo al mondo (preceduto dal Giappone), con un’aspettativa di vita di circa 81,5 anni. L’attuale percentuale degli over 65 è di circa il 20% ma si prevede che nel 2050 tale percentuale possa raggiungere il 34%. Dal punto di vista economico è necessario trovare soluzioni che conducano ad una contenuta e ridotta spesa sanitaria sul bilancio statale, conservando la qualità e l’efficienza dei servizi ospedalieri. Dal punto di vista sociale l’obiettivo è quello di poter assistere l’anziano, non più completamente autosufficiente, nelle cure offrendo anche supporto psicologico e la sicurezza di non essere abbandonato a sé stesso. Il raggiungimento di tali obiettivi ha un’unica parola chiave: casa; cioè far in modo che l’anziano, ma in generale il paziente, possa ricevere cura ed assistenza nella propria casa, grazie alla combinazione sinergica del servizio di assistenza domiciliare e della Telemedicina.
Resumo:
Il presente elaborato ha lo scopo di descrivere le principali caratteristiche e applicazioni delle biomembrane lipidiche artificiali utilizzate nel campo biochimico e biomedico. Nel Capitolo 1. viene presentata una panoramica generale della membrana cellulare, descrivendo la sua struttura a “mosaico fluido” e i principali componenti che la costituiscono, cioè i lipidi e le proteine transmembrana. Viene quindi descritto uno dei ruoli fondamentali della membrana cellulare, ovvero il trasporto di soluti all’interno e all’esterno della cellula. Vengono schematizzate le tipologie di trasporto, attivo e passivo, e la funzione dei canali ionici, un particolare tipo di proteina transmembrana che permette il passaggio selettivo di ioni dall'esterno all'interno della cellula o viceversa. Il Capitolo 2. si focalizza sui principali modelli di biomembrane lipidiche artificiali. Infatti, a seconda del tipo di metodo e di materiale utilizzato, è possibile ottenere dei prototipi che differiscono per caratteristiche e funzionalità. Verranno illustrate le membrane lipidiche nere (BLM), i doppi strati lipidici (bilayer) con supporto solido (SLB), i bilayer lipidici ibridi e i doppi strati con ammortizzatore polimerico. Per ognuna di queste biomembrane artificiali verranno analizzati i metodi di formazione e gli utilizzi in campo biomedico. Verranno poi descritti i metodi di incorporazione delle proteine nel doppio strato lipidico e le tecniche per stabilizzare il bilayer e realizzare una piattaforma sensoriale. Nel Capitolo 3 verranno presentate le principali applicazioni che utilizzano membrane artificiali, sia per lo studio dei principali processi cellulari di membrana e screening dei farmaci sia per la realizzazione di piattaforme sensorizzate. Infine nel Capitolo 4. si considereranno le innovazioni attese nel campo delle biomembrane artificiali anticipando le loro potenziali applicazioni future. Infatti, le prospettive in questo campo sono molto promettenti soprattutto per quel che riguarda lo screening di nuovi farmaci.
Resumo:
La fissazione esterna si propone come una metodica alternativa molto valida nel trattamento delle fratture di bacino e delle ossa lunghe, nel massimo rispetto delle parti molli e dell’osso, e nel recupero precoce del movimento articolare. I maggiori vantaggi nell’utilizzo dei fissatori esterni sono rappresentati: dalla possibilità di essere utilizzati in una gamma di situazioni complesse, nelle quali le tecniche tradizionali non danno buoni risultati (ad esempio fratture esposte), dalla semplicità del procedimento chirurgico, dal fatto che evitano un secondo tempo chirurgico per la rimozione dei mezzi di sintesi. Contrariamente a tutti i mezzi di sintesi inoltre, sono indicati nel caso di infezioni. A livello articolare invece, la loro presenza, contrariamente a un gesso, consente la mobilizzazione precoce, sia passiva che attiva, dell’arto interessato, fondamentale per una completa ripresa funzionale. L'esperienza di questa tesi ha mostrato che i criteri di valutazione di un sistema di fissazione esterna sono rappresentati da: stabilità dell’impianto, cioè la capacità del sistema di mantenere la riduzione ottenuta resistendo alle forze di sollecitazione nel tempo, deformabilità elastica dell’impianto, cioè la possibilità di consentire e promuovere micromovimenti a livello del focolaio di frattura, versatilità dell’impianto, cioè la possibilità di realizzare montaggi diversi per rispondere a specifiche richieste terapeutiche, massimo rispetto biologico da parte degli elementi di presa, con un’accettabile ingombro per evitare intolleranze soggettive e semplicità d’applicazione. Pertanto i vantaggi clinici sono: minima invasività, sintesi stabile, compressione inter-frammentaria, versatilità, mobilizzazione precoce e carico precoce. Il presente lavoro si è rivelato uno strumento utile per arrivare alla progettazione finale di un sistema circolare e di un sistema ibrido che possano rispondere entrambi a tutti i requisiti sopra elencati. Ha focalizzato innanzitutto la propria attenzione su un sistema circolare, con il fine ultimo di descrivere in quale modo esso risponde all’applicazione di differenti cicli di carico. La particolarità del sistema studiato è rappresentata dalla possibilità di combinare il sistema circolare con un dispositivo articolato di ginocchio, costituendo così un sistema ibrido di fissazione esterna. Il sistema ibrido ha unito la rigidezza garantita dal sistema monolaterale all’elasticità dei sistemi circolari, in modo tale che le forze, che altrimenti agirebbero sul focolaio di frattura, si possano scaricare sia sul dispositivo monolaterale sia sui cerchi. L’elaborato ha focalizzato quindi la sua attenzione sul sistema ibrido, formato dalla combinazione del sistema circolare e del dispositivo monolaterale articolato, con il fine ultimo di descrivere come anch’esso risponde all’applicazione di differenti cicli di carico.
Resumo:
La PKCε e la PKCδ, chinasi ubiquitariamente distribuite e ad azione pleiotropica, sono implicate del differenziamento, sopravvivenza e proliferazione cellulare. Esse sono coinvolte nel processo differenziativo delle cellule staminali ematopoietiche e in fenomeni patologici associati al compartimento sanguigno. In questa tesi sono presentati i risultati riguardanti lo studio in vitro del ruolo di PKCε e PKCδ nel contesto del differenziamento megacariocitario, in particolare si caratterizza l’espressione e la funzione di queste chinasi nel modello umano e nel modello murino di Megacariocitopoiesi, normale e patologica. Confrontando le cinetiche dei due modelli presi in analisi nello studio è stato possibile osservare come in entrambi PKCε e PKCδ dimostrino avere una chiara e specifica modulazione nel progredire del processo differenziativo. Questi dati, se confrontati, permettono di affermare che PKCε e PKCδ presentano un pattern di espressione opposto e, nel modello umano rispetto a quello murino, reciproco: nell’uomo i livelli di PKCε devono essere down-modulati, mentre nel topo, al contrario, i livelli della chinasi risultano up-modulati durante lo stesso processo. Analogamente, le CD34+ in differenziazione presentano una costante e maggiore espressione di PKCδ durante la maturazione MK, mentre nel modello murino tale proteina risulta down-modulata nella fase più tardiva di formazione della piastrina. Le chinasi mostrano in oltre di agire, nei due modelli, attraverso pathways distinti e cioè RhoA nel topo e Bcl-xL nell’uomo. È stato inoltre verificato che l’aberrante differenziamento MK osservato nella mielofibrosi primaria (PMF), è associato a difetti di espressione di PKCε e di Bcl-xL e che una forzata down-modulazione di PKCε porta ad un ripristino di un normale livello di espressione di Bcl-xL così come della popolazione di megacariociti formanti propiastrine. I dati ottenuti indicano quindi che PKCε e PKCδ svolgono un ruolo importante nel corretto differenziamento MK e che PKCε potrebbe essere un potenziale nuovo target terapeutico nelle PMF.
Resumo:
Nella tesi si illustra la discalculia, cioè un disturbo che interessa la sfera del calcolo e delle abilità matematiche. Segue una parte di ricerca in classe sul calcolo mentale, in cui è stato programmato un intervento didattico al fine di favorire il ragionamento e poi, tramite l’esercizio, consentire l’automatizzazione delle procedure risolutive.
Resumo:
I sistemi di intelligenza artificiale vengono spesso messi a confronto con gli aspetti biologici riguardanti il cervello umano. L’interesse per la modularità è in continua crescita, che sta portando a risultati davvero interessanti attraverso l’utilizzo di sistemi artificiali intelligenti, come le reti neuronali. Molte reti, sia biologiche sia artificiali sono organizzate in moduli, i quali rappresentano cluster densi di parti interconnesse fra loro all’interno di una rete complessa. Nel campo dell’ingegneria, si usano design modulari per spiegare come una macchina è costituita da parti separate. Lo studio della struttura e delle funzioni di organismi/processi complessi si basa implicitamente su un principio di organizzazione modulare, vale a dire si dà per acquisito il fatto che siano modulari, cioè composti da parti con forma e/o funzioni diverse. Questo elaborato si propone di esporre gli aspetti fondamentali riguardanti la modularità di reti neuronali, le sue origini evolutive, le condizioni necessarie o sufficienti che favoriscono l’emergere dei moduli e relativi vantaggi. Il primo capitolo fornisce alcune conoscenze di base che permettono di leggere gli esperimenti delle parti successive con consapevolezza teorica più profonda. Si descrivono reti neuronali artificiali come sistemi intelligenti ispirati alla struttura di reti neurali biologiche, soffermandosi in particolare sulla rete feed-forward, sull’algoritmo di backpropagation e su modelli di reti neurali modulari. Il secondo capitolo offre una visione delle origini evolutive della modularità e dei meccanismi evolutivi riguardanti sistemi biologici, una classificazione dei vati tipi di modularità, esplorando il concetto di modularità nell’ambito della psicologia cognitiva. Si analizzano i campi disciplinari a cui questa ricerca di modularità può portare vantaggi. Dal terzo capitolo che inizia a costituire il corpo centrale dell’elaborato, si dà importanza alla modularità nei sistemi computazionali, illustrando alcuni casi di studio e relativi metodi presenti in letteratura e fornendo anche una misura quantitativa della modularità. Si esaminano le varie possibilità di evoluzione della modularità: spontanea, da specializzazione, duplicazione, task-dependent, ecc. passando a emulare l’evoluzione di sistemi neurali modulari con applicazione al noto modello “What-Where” e a vari modelli con caratteristiche diverse. Si elencano i vantaggi che la modularità produce, soffermandosi sull’algoritmo di apprendimento, sugli ambienti che favoriscono l’evoluzione della modularità con una serie di confronti fra i vari tipi, statici e dinamici. In ultimo, come il vantaggio di avere connessioni corte possa portare a sviluppare modularità. L’obiettivo comune è l’emergere della modularità in sistemi neuronali artificiali, che sono usati per applicazioni in numerosi ambiti tecnologici.
Resumo:
Questo elaborato si specializza nell'ambito della traduzione multimediale, un campo che a mio parere, risalta lo sviluppo tecnologico e sociale del nostro tempo. Nello specifico, ho focalizzato la mia attenzione sul sottotitolaggio di un frammento della seconda puntata di una serie televisiva spagnola dal titolo "El tiempo entre costuras". Tale serie è tratta da un romanzo spagnolo di successo dallo stesso titolo, dell'autrice María Dueñas. Il mio elaborato perciò, tratterà delineare un confronto di tipo linguistico e traduttivo fra la versione letteraria del romanzo e il sottotitolaggio correlato della serie. L'elaborato si suddivide in tre capitoli che trattano in maniera sistematica il processo lavorativo che ho deciso di seguire. Il primo capitolo riguarda la descrizione della serie televisiva trattata e allo stesso tempo una presentazione del romanzo cui si ispira. In altre parole, una panoramica del contesto storico, culturale, sociale e linguistico di queste due opere e dei loro risvolti traduttivi. Il secondo capitolo affronta in maniera generale il tema della traduzione audiovisiva, la sua evoluzione nel tempo, l'importanza di questa nella società odierna, in modo particolare del sottotitolaggio in Italia. Inoltre, si vuole anche trattare il tema della traduzione intersemiotica, cioè l’azione di trasportare un romanzo a livello multimediale e il relativo regolamento del processo traduttivo.Infine, il terzo capitolo è dedicato al confronto delle due realtà di traduzione, quella letterale e quella multimediale e soprattutto alle differenze che esistono tra i due processi linguistici e alle particolarità culturali della lingua spagnola con rispetto a quella italiana.
Resumo:
Nell'ambito delle nanostrutture, un ruolo primario è svolto dai punti quantici. In questo lavoro siamo interessati all'analisi teorica del processo di creazione dei punti quantici: esso può avvenire per eteroepitassia, in particolare secondo il metodo studiato da Stranski-Krastanov. Un film di Germanio viene depositato su un substrato di Silicio in modo coerente, cioè senza dislocazioni, e, a causa del misfit tra le maglie dei due materiali, c'è un accumulo di energia elastica nel film. A una certa altezza critica questa energia del film può essere ridotta se il film si organizza in isole (punti quantici), dove la tensione può essere rilassata lateralmente. L'altezza critica dipende dai moduli di Young (E, υ), dal misfit tra le maglie (m) e dalla tensione superficiali (γ). Il trasporto di materiale nel film è portato avanti per diffusione superficiale. Il punto focale nell'analisi delle instabilità indotte dal misfit tra le maglie dei materiali è la ricerca delle caratteristiche che individuano il modo di crescita più rapido dei punti quantici. In questo lavoro siamo interessati ad un caso particolare: la crescita di punti quantici non su una superficie piana ma sulla superficie di un nanofilo quantico a geometria cilindrica. L'analisi delle instabilità viene condotta risolvendo le equazioni all'equilibrio: a tal fine sono state calcolate le distribuzioni del tensore delle deformazioni e degli sforzo di un nanofilo core-shell con una superficie perturbata al primo ordine rispetto all'ampiezza della perturbazione. L'analisi è stata condotta con particolari condizioni al contorno ed ipotesi geometriche, e diverse scelte dello stato di riferimento del campo degli spostamenti. Risolto il problema elastico, è stata studiata l'equazione dinamica di evoluzione descrivente la diffusione di superficie. Il risultato dell'analisi di instabilità è il tasso di crescita in funzione del numero d'onda q, con diversi valori del raggio del core, spessore dello shell e modo normale n, al fine di trovare il più veloce modo di crescita della perturbazione.