498 resultados para Superfici Minime, Spazio Euclideo, Spazio di Minkowski.
Resumo:
Ogni giorno, nel mondo, si verificano migliaia di fratture ossee e la maggior parte di esse, con il passare del tempo, riescono a rimarginarsi in modo autonomo. In casi più importanti, le fratture ossee necessitano di interventi chirurgici. Per queste motivazioni, affianco ad autoinnesti, alloinnesti e xenoinnesti, negli ultimi anni si è iniziato a parlare in modo sempre più frequente di ingegneria tissutale. In questo tipo di ingegneria, vengono sviluppate delle impalcature in grado di emulare il tessuto osseo naturale. Lo scopo di questa tesi è analizzare le varie tipologie di produzione di scaffold ossei che si ottengono attraverso la tecnologia della stampa 3D. Nella parte introduttiva dell’elaborato, viene inserita una descrizione del tessuto osseo visto sia dal punto di vista cellulare e della composizione, sia dal punto di vista delle proprietà meccaniche. Successivamente, parlando di medicina rigenerativa, vengono descritti i mezzi di osteosintesi, gli innesti e le impalcature, o scaffold, da impiantare nel sito di interesse. Per quanto riguarda gli scaffold, devono soddisfare diversi requisiti, tra cui la biomimetica, la compatibilità con l’attività cellulare, requisiti di progettazione e proprietà meccaniche adeguate. Tali scaffold possono essere realizzati attraverso diverse geometrie interne. Nella seconda parte dell’elaborato, vengono analizzate le geometrie a cubo semplice, a cubo a faccia centrata/a diamante, a cubo a corpo centrato, a dodecaedro rombico, a traliccio di ottetto, a cubo troncato, modellate attraverso il metodo delle superfici minime triplamente periodiche e con tassellatura di Voronoi. Per i vari articoli analizzati sono stati investigati i metodi di produzione e i risultati ottenuti confrontando vantaggi e svantaggi fra le differenti geometrie.
Resumo:
In questa trattazione viene presentato lo studio di un modello a raggi che permette di simulare il comportamento macroscopico delle Superfici Intelligenti. L’ottimizzazione del canale radio, in particolare dell’ambiente di propagazione, si rivela fondamentale per la futura introduzione del 6G. Per la pianificazione della propagazione in ambienti ampi, risulta necessario implementare modelli di simulazione. I modelli a raggi possono essere integrati più facilmente all’interno di algoritmi per le previsioni di campo computazionalmente efficienti, come gli algoritmi di Ray Tracing. Nell’elaborato si è analizzato il comportamento del modello, con riferimento a tre funzioni tipiche realizzate da una Superficie Intelligente: il riflettore anomalo, la lente focalizzante e la lente defocalizzante. Attraverso una griglia di ricevitori è stato calcolato il campo dell’onda nelle varie configurazioni. Infine, si sono confrontati i risultati ottenuti con quelli del modello elettromagnetico.
Resumo:
Si vuole definire una misura sullo spazio R^n, cioè la misura di Hausdorff, che ci permetta di assegnare le nozioni di "lunghezza", "area", "volume" ad opportuni sottoinsiemi di R^n. La definizione della misura di Hausdorff sarà basata sulla richiesta che il ricoprimento segua la geometria locale dell'insieme da misurare. In termini matematici, questa richiesta si traduce nella scelta di ricoprimenti di diametro "piccolo". Si darà risalto al fatto che le due misure coincidano sui Boreliani di R^n e si estenderanno le relazioni tra le due misure su R^n ad un generico spazio di Banach. Nel primo capitolo, si danno delle nozioni basilari di teoria della misura, in particolare definizioni e proprietà che valgono per le misure di Hausdorff. Nel secondo capitolo, si definiscono le misure di Hausdorff, si dimostra che sono misure Borel-regolari, si vedono alcune proprietà di base legate a trasformazioni insiemistiche, si dà la definizione di dimensione di Hausdorff di un insieme e si mostrano esempi di insiemi "non regolari", cioè la cui dimensione non è un numero naturale. Nel terzo capitolo, si dimostra il Teorema di Ricoprimento di Vitali, fondato sul principio di massimalità di Hausdorff. Nel quarto capitolo, si dimostra che per ogni insieme Boreliano di R^n, la misura di Lebesgue e la misura di Hausdorff n-dimensionali coincidono. A tale scopo, si fa uso del Teorema del Ricoprimento di Vitali e della disuguaglianza isodiametrica, che verrà a sua volta dimostrata utilizzando la tecnica di simmetrizzazione di Steiner. Infine, nel quinto capitolo, si osserva che molte delle definizioni e proprietà viste per le misure di Hausdorff in R^n sono generalizzabili al contesto degli spazi metrici e si analizza il legame tra la misura di Hausdorff e la misura di Lebesgue nel caso di uno spazio di Banach n-dimensionale.
Resumo:
Obiettivo dello studio condotto è l’implementazione di cicli di operazioni per l’assemblaggio automatizzato di componenti che costituiscono un sistema di trasporto a catena presente in alcune macchine automatiche. L’automazione del processo, fino ad oggi svolto manualmente, prevede l’utilizzo di un robot e, per il controllo di quest’ultimo, di un sistema di visione artificiale. L’attività di tirocinio associata alla tesi di laurea, che ha incluso una parte sperimentale oltre alla scrittura degli algoritmi di controllo del robot, è stata svolta all’interno del laboratorio TAILOR (Technology and Automation for Industry LabORatory) presso Siropack Italia S.r.l dove è presente una cella dotata di robot antropomorfo (Mitsubishi Electric) e di sistema di visione artificiale con camere 2D (Omron). La presenza di quest’ultimo è risultata strategica in termini di possibilità di adattare il montaggio anche a diversi posizionamenti degli oggetti all’interno dello spazio di lavoro, fermo restando che gli stessi risultassero appoggiati su una superficie piana. In primo luogo, affinché fosse garantita la ripetibilità del processo, sono state testate le prestazioni del sistema di visione tramite opportuna calibrazione della camera e del sistema di illuminazione ad esso collegata, al fine di ottenere un’acquisizione delle immagini che fosse sufficientemente robusta e risoluta mediante lo sfruttamento del software di elaborazione Omron FH Vision System. Un’opportuna programmazione della traiettoria del robot in ambiente di simulazione RT Toolbox 3, software integrato nel sistema di controllo del robot Mitsubishi Electric, ha infine consentito le regolari operazioni di assemblaggio, garantendo un processo affidabile ed, allo stesso tempo, adattabile ad ambienti eventualmente non strutturati in cui esso si trova ad operare.
Resumo:
Il concept alla base di Onecook è stato ispirato dalle esigenze dei giovani adulti che vivono da soli in piccole case. Infatti, molte persone in questa fascia di età hanno appena iniziato a vivere da sole e spesso hanno uno spazio limitato in cucina. Il mio obiettivo era creare un set che includesse tutti gli elementi essenziali, per cucinare in modo più efficiente risparmiando anche energia, con un design compatto e salvaspazio. Per raggiungere questo obiettivo, ho progettato una piastra ad induzione con un’area di riscaldamento flessibile, affinché potesse permettere l’utilizzo simultaneo di pentole e padelle di diverse dimensioni. Grazie a questa flessibilità, la piastra si scalda solamente nell’area utilizzata, aumentando, quindi, l’efficienza energetica e contribuendo a ridurre il consumo energetico complessivo. Inoltre, è stata progettata una cappa di aspirazione filtrante portatile, che può essere facilmente spostata e riposta quando non viene utilizzata. Onecook include anche una varietà di altri strumenti essenziali come un coltello, un tagliere, un mestolo e una spatola. Una delle caratteristiche uniche di questo set è che le padelle e le pentole sono progettate per essere impilabili e modulari, massimizzando lo spazio di archiviazione e facilitando la ricerca della pentola o padella giusta per una ricetta particolare. Oltre alla funzionalità, ho considerato anche l’aspetto estetico del set e scelto colori e materiali moderni e senza tempo. Il prodotto finale è un set funzionale, poco ingombrante e visivamente gradevole. Nel complesso, Onecook è progettato per soddisfare le esigenze dei giovani adulti che cercano un modo compatto ed efficiente per cucinare per loro stessi. Credo che questo set li aiuterà a creare pasti deliziosi e salutari nelle loro piccole case.
Resumo:
L’elaborato affronta l’ottimizzazione di una pressa a doppia ginocchiera a 5 punti impiegata nello stampaggio a iniezione. Il processo di ottimizzazione coinvolge la sintesi dimensionale dei membri del meccanismo e la pianificazione della traiettoria del suo organo cedente. L’obiettivo finale è di ottenere una geometria del meccanismo ed una legge oraria che minimizzino il picco di coppia richiesto all’attuatore, oltre a rispettare i vincoli fisici dell’applicazione (ingombri, velocità massima, forza massima, ecc.). La soluzione ottima viene raggiunta applicando in serie l’algoritmo genetico e l’algoritmo SQP (programmazione quadratica sequenziale) ad un modello dinamico rigido del meccanismo. I due algoritmi vengono scelti in quanto efficaci nel risolvere un problema di ottimizzazione vincolato. Per quanto riguarda la loro applicazione in serie, l’algoritmo genetico permette l’esplorazione dello spazio di progettazione e l’individuazione di una soluzione "buona", a partire da questa l’algoritmo SQP trova l’ottimo locale. L’intero processo di modellazione ed ottimizzazione è implementato tramite il software MATLAB. I risultati sono validati con un software di analisi dinamica (SolidWorks Motion) ed in parte in maniera sperimentale. Infine, la soluzione attuale viene confrontata con quelle ottenute. Il confronto è descritto nel dettaglio nella Sezione 6.5 ed in forma riassuntiva nella Sezione 6.5.5.
Resumo:
Il lavoro presentato in questa tesi si colloca nel contesto della programmazione con vincoli, un paradigma per modellare e risolvere problemi di ricerca combinatoria che richiedono di trovare soluzioni in presenza di vincoli. Una vasta parte di questi problemi trova naturale formulazione attraverso il linguaggio delle variabili insiemistiche. Dal momento che il dominio di tali variabili può essere esponenziale nel numero di elementi, una rappresentazione esplicita è spesso non praticabile. Recenti studi si sono quindi focalizzati nel trovare modi efficienti per rappresentare tali variabili. Pertanto si è soliti rappresentare questi domini mediante l'uso di approssimazioni definite tramite intervalli (d'ora in poi rappresentazioni), specificati da un limite inferiore e un limite superiore secondo un'appropriata relazione d'ordine. La recente evoluzione della ricerca sulla programmazione con vincoli sugli insiemi ha chiaramente indicato che la combinazione di diverse rappresentazioni permette di raggiungere prestazioni di ordini di grandezza superiori rispetto alle tradizionali tecniche di codifica. Numerose proposte sono state fatte volgendosi in questa direzione. Questi lavori si differenziano su come è mantenuta la coerenza tra le diverse rappresentazioni e su come i vincoli vengono propagati al fine di ridurre lo spazio di ricerca. Sfortunatamente non esiste alcun strumento formale per paragonare queste combinazioni. Il principale obiettivo di questo lavoro è quello di fornire tale strumento, nel quale definiamo precisamente la nozione di combinazione di rappresentazioni facendo emergere gli aspetti comuni che hanno caratterizzato i lavori precedenti. In particolare identifichiamo due tipi possibili di combinazioni, una forte ed una debole, definendo le nozioni di coerenza agli estremi sui vincoli e sincronizzazione tra rappresentazioni. Il nostro studio propone alcune interessanti intuizioni sulle combinazioni esistenti, evidenziandone i limiti e svelando alcune sorprese. Inoltre forniamo un'analisi di complessità della sincronizzazione tra minlex, una rappresentazione in grado di propagare in maniera ottimale vincoli lessicografici, e le principali rappresentazioni esistenti.
Resumo:
Il Cloud Storage è un modello di conservazione dati su computer in rete, dove i dati stessi sono memorizzati su molteplici server, reali e/o virtuali, generalmente ospitati presso strutture di terze parti o su server dedicati. Tramite questo modello è possibile accedere alle informazioni personali o aziendali, siano essi video, fotografie, musica, database o file in maniera “smaterializzata”, senza conoscere l’ubicazione fisica dei dati, da qualsiasi parte del mondo, con un qualsiasi dispositivo adeguato. I vantaggi di questa metodologia sono molteplici: infinita capacita’ di spazio di memoria, pagamento solo dell’effettiva quantità di memoria utilizzata, file accessibili da qualunque parte del mondo, manutenzione estremamente ridotta e maggiore sicurezza in quanto i file sono protetti da furto, fuoco o danni che potrebbero avvenire su computer locali. Google Cloud Storage cade in questa categoria: è un servizio per sviluppatori fornito da Google che permette di salvare e manipolare dati direttamente sull’infrastruttura di Google. In maggior dettaglio, Google Cloud Storage fornisce un’interfaccia di programmazione che fa uso di semplici richieste HTTP per eseguire operazioni sulla propria infrastruttura. Esempi di operazioni ammissibili sono: upload di un file, download di un file, eliminazione di un file, ottenere la lista dei file oppure la dimensione di un dato file. Ogniuna di queste richieste HTTP incapsula l’informazione sul metodo utilizzato (il tipo di richista, come GET, PUT, ...) e un’informazione di “portata” (la risorsa su cui effettuare la richiesta). Ne segue che diventa possibile la creazione di un’applicazione che, facendo uso di queste richieste HTTP, fornisce un servizio di Cloud Storage (in cui le applicazioni salvano dati in remoto generalmene attraverso dei server di terze parti). In questa tesi, dopo aver analizzato tutti i dettagli del servizio Google Cloud Storage, è stata implementata un’applicazione, chiamata iHD, che fa uso di quest’ultimo servizio per salvare, manipolare e condividere dati in remoto (nel “cloud”). Operazioni comuni di questa applicazione permettono di condividere cartelle tra più utenti iscritti al servizio, eseguire operazioni di upload e download di file, eliminare cartelle o file ed infine creare cartelle. L’esigenza di un’appliazione di questo tipo è nata da un forte incremento, sul merato della telefonia mobile, di dispositivi con tecnologie e con funzioni sempre più legate ad Internet ed alla connettività che esso offre. La tesi presenta anche una descrizione delle fasi di progettazione e implementazione riguardanti l’applicazione iHD. Nella fase di progettazione si sono analizzati tutti i requisiti funzionali e non funzionali dell’applicazione ed infine tutti i moduli da cui è composta quest’ultima. Infine, per quanto riguarda la fase di implementazione, la tesi presenta tutte le classi ed i rispettivi metodi presenti per ogni modulo, ed in alcuni casi anche come queste classi sono state effettivamente implementate nel linguaggio di programmazione utilizzato.
Resumo:
Il mio percorso universitario presso la Facoltà di Architettura di Cesena ha inizio nell’anno accademico 2006-2007. Il titolo della tesi “Conoscere per conservare3, conservare per conoscere” sintetizza l’importanza di offrire una spiegazione della tematica della conoscenza e della sua necessità, la quale risulta essere indispensabile per ottenere un buon progetto di restauro. Progettare un edificio senza conoscerlo appare una scelta ingiustificabile, è tuttavia necessario che la raccolta di dati analitici non sia fine a se stessa e solo finalizzata a donare una facciata di rispettabilità all’architetto e alle sue operazioni progettuali. A partire da questa riflessione si arriva inevitabilmente a parlare di “ricerca della metodologia del restauro” e delle tecniche con il quale questo deve venire affrontato in termini di “piccolo restauro” (ossia restauro delle superfici). Nonostante infatti ogni cantiere di restauro abbia una sua particolare storia è comunque necessario un metodo chiaro e ordinato, di procedure collaudate e di tecniche ben sperimentate. Alla luce di tali osservazioni i temi di seguito proposti sono occasione di una riflessione nel contempo teorica e pratica, con particolare riferimento al restauro e alla conservazione delle superfici; gli edifici scelti appartengono a temi molto differenti l’uno dell’altro e per entrambi verrà proposta una ipotesi di conservazione e restauro delle superfici. Il primo, Palazzo Guidi, è un palazzo settecentesco sito all’interno del centro storico della città di Cesena; il secondo, la Rocca Malatestiana, costruita a partire dal 1100 dalla famiglia dei Malatesta trova la sua ubicazione in cima a una roccia nella alta Valmarecchia. Il progetto per la conservazione ed il restauro di Palazzo Guidi risulta essere la sintesi degli apprendimenti ricevuti nei precedenti anni accademici in due diverse discipline quali: “Rilievo architettonico” e “Laboratorio di restauro architettonico”. Per quanto concerne la Rocca Malatestiana il tema proposto nasce invece a partire dal progetto del “LSF. Archeologia e progetto di architettura” il quale è stato maggiormente approfondito riguardo le tematiche del restauro con la collaborazione del Prof. Arch. Andrea Ugolini e con l’ausilio del corso di “Conservazione e trattamento dei materiali” seguito presso la Facoltà di Conservazione dei Beni Culturali di Ravenna.
Resumo:
Diodi organici emettitori di luce bianca (WOLEDs) sono dei dispositivi promettenti per la realizzazione di sorgenti luminose a basso consumo di energia, in quanto essi combinano un’alta efficienza e bassi costi di produzione con l’interessante caratteristica di poter produrre grandi superfici che emettono luce bianca di buona qualità. Tuttavia, la durata, le prestazioni e i costi devono ancora essere ottimizzati affinché i WOLEDs possano diventare commercialmente competitivi con le altre più comuni fonti di illuminazione; in particolare è necessario migliorare la stabilità e l’efficienza degli emettitori. Nella presente tesi viene trattata la sintesi di molecole organometalliche a singolo componente per ottenere un’elettroluminescenza di un bianco più puro possibile. In particolare l’attenzione è stata rivolta all’ottenimento di complessi eterometallici Ir-Eu. Sono stati sintetizzati tre diversi dimeri di Ir (III), con sistemi fenilpiridinici variamente fluorurati come leganti; a secondo del tipo di legante si hanno delle variazioni delle proprietà fotofisiche del complesso di Ir (III) successivamente prodotto. In seguito sono stati sintetizzati leganti bifunzionali contenenti un’unità isocianuro (in grado di coordinare selettivamente l’Iridio) e un gruppo acetilacetonato (in grado di coordinare selettivamente l’Europio). Tali leganti sono stati poi impiegati per formare il complesso di Eu (III). Infine, la reazione tra i dimeri di Ir (III) e il complesso di Eu (III) ha portato alla formazione dei complessi eterometallici Ir-Eu, che sono stati poi caratterizzati sia strutturalmente che fotofisicamente. Grazie ai due diversi centri emissivi presenti nella stessa molecola si è ottenuta una complessiva luce bianca.
Resumo:
Si è proposto una serie di 4 assiomi per la MQ più deboli, e quindi più fondamentali, da cui è possibile dedurre i concetti di misura di probabilità, equazione di Schrodinger e operatori autoaggiunti, considerati i pilastri della MQ. Si è cercato di trovare le motivazioni fisiche che rendevano necessaria la loro formulazione e si sono sviluppate le conseguenze matematiche. In particolare ci si è focalizzati nel dimostrare che non a tutte le osservabili possono essere associati operatori simmetrici definiti su tutto lo spazio di Hilbert, da cui l’introduzione negli assiomi della MQ degli operatori simmetrici massimali densamente definiti; il punto fondamentale è che da questi ultimi è stato provato che si può arrivare alla corrispondenza biunivoca tra operatori autoaggiunti ed osservabili fisiche. Si è infine dimostrato che la condizione che un operatore sia simmetrico massimale non implica che esso sia autoaggiunto.
Resumo:
Lo studio dell’intelligenza artificiale si pone come obiettivo la risoluzione di una classe di problemi che richiedono processi cognitivi difficilmente codificabili in un algoritmo per essere risolti. Il riconoscimento visivo di forme e figure, l’interpretazione di suoni, i giochi a conoscenza incompleta, fanno capo alla capacità umana di interpretare input parziali come se fossero completi, e di agire di conseguenza. Nel primo capitolo della presente tesi sarà costruito un semplice formalismo matematico per descrivere l’atto di compiere scelte. Il processo di “apprendimento” verrà descritto in termini della massimizzazione di una funzione di prestazione su di uno spazio di parametri per un ansatz di una funzione da uno spazio vettoriale ad un insieme finito e discreto di scelte, tramite un set di addestramento che descrive degli esempi di scelte corrette da riprodurre. Saranno analizzate, alla luce di questo formalismo, alcune delle più diffuse tecniche di artificial intelligence, e saranno evidenziate alcune problematiche derivanti dall’uso di queste tecniche. Nel secondo capitolo lo stesso formalismo verrà applicato ad una ridefinizione meno intuitiva ma più funzionale di funzione di prestazione che permetterà, per un ansatz lineare, la formulazione esplicita di un set di equazioni nelle componenti del vettore nello spazio dei parametri che individua il massimo assoluto della funzione di prestazione. La soluzione di questo set di equazioni sarà trattata grazie al teorema delle contrazioni. Una naturale generalizzazione polinomiale verrà inoltre mostrata. Nel terzo capitolo verranno studiati più nel dettaglio alcuni esempi a cui quanto ricavato nel secondo capitolo può essere applicato. Verrà introdotto il concetto di grado intrinseco di un problema. Verranno inoltre discusse alcuni accorgimenti prestazionali, quali l’eliminazione degli zeri, la precomputazione analitica, il fingerprinting e il riordino delle componenti per lo sviluppo parziale di prodotti scalari ad alta dimensionalità. Verranno infine introdotti i problemi a scelta unica, ossia quella classe di problemi per cui è possibile disporre di un set di addestramento solo per una scelta. Nel quarto capitolo verrà discusso più in dettaglio un esempio di applicazione nel campo della diagnostica medica per immagini, in particolare verrà trattato il problema della computer aided detection per il rilevamento di microcalcificazioni nelle mammografie.
Resumo:
Il plasma, quarto stato della materia, rappresenta un gas ionizzato in cui ioni ed elettroni si muovono a diverse energie sotto l’azione di un campo elettro-magnetico applicato dall’esterno. I plasmi si dividono in plasmi di equilibrio e di non equilibrio termodinamico, quest’ultimi sono caratterizzati da un’alta temperatura elettronica (oltre 10000 K) e da una bassa temperatura traslazionale degli ioni e delle specie neutre (300-1000 K). I plasmi di non equilibrio trovano largo impiego nella microelettronica, nei processi di polimerizzazione, nell’industria biomedicale e del packaging, consentendo di effettuare trattamenti di sterilizzazione e attivazione superficiale. Il lavoro di tesi è incentrato sui processi di funzionalizzazione e polimerizzazione superficiale con l’obbiettivo di realizzare e caratterizzare sorgenti di plasma di non equilibrio a pressione atmosferica operanti in ambiente controllato. È stata realizzata una sorgente plasma operante a pressione atmosferica e in ambiente controllato per realizzare trattamenti di modifica superficiale e di polimerizzazione su substrati polimerici. L’efficacia e l’omogeneità dei trattamenti eseguiti sono stati valutati tramite misura dell’angolo di contatto. La caratterizzazione elettrica ha consentito di determinare i valori di densità di energia superficiale trasferita sui substrati al variare delle condizioni operative. Lo strato depositato durante il processo di polimerizzazione è stato analizzato qualitativamente tramite l’analisi chimica in spettroscopia infrarossa. L’analisi delle prove di funzionalizzazione dimostra l’uniformità dei processi plasma eseguiti; inoltre i valori dell’angolo di contatto misurati in seguito ai trattamenti risultano confrontabili con la letteratura esistente. Lo studio dei substrati trattati in atmosfera satura d’azoto ha rivelato una concentrazione superficiale di azoto pari al 3% attribuibile alla presenza di ammine, ammine protonate e gruppi ammidici; ciò conferma la bontà della soluzione realizzata e dei protocolli operativi adottati per la funzionalizzazione delle superfici. L’analisi spettroscopica dei trattamenti di polimerizzazione, ha fornito spettri IR confrontabili con la letteratura esistente indicando una buona qualità del polimero depositato (PEG). I valori misurati durante la caratterizzazione elettrica della sorgente realizzata risulteranno fondamentali in futuro per l’ottimizzazione del dispositivo. I dati raccolti infatti, determineranno le linee guida per il tailoring dei trattamenti plasma e per lo sviluppo della sorgente. Il presente lavoro di tesi, pur prendendo in esame una piccola parte delle applicazioni industriali dei plasmi non termici, conferma quanto queste siano pervasive nei comuni processi industriali evidenziandone le potenzialità e i numerosi campi d’applicazione. La tecnologia plasma è destinata ad essere imprescindibile per la ricerca di soluzioni innovative ai limiti dei processi tradizionali.
Resumo:
Lo scopo di questa tesi è studiare l'espansione dinamica di due fermioni interagenti in una catena unidimensionale cercando di definire il ruolo degli stati legati durante l'evoluzione temporale del sistema. Lo studio di questo modello viene effettuato a livello analitico tramite la tecnica del Bethe ansatz, che ci fornisce autovalori ed autovettori dell'hamiltoniana, e se ne valutano le proprietà statiche. Particolare attenzione è stata dedicata alle caratteristiche dello spettro al variare dell'interazione tra le due particelle e alle caratteristiche degli autostati. Dalla risoluzione dell'equazione di Bethe vengono ricercate le soluzioni che danno luogo a stati legati delle due particelle e se ne valuta lo spettro energetico in funzione del momento del centro di massa. Si è studiato inoltre l'andamento del numero delle soluzioni, in particolare delle soluzioni che danno luogo ad uno stato legato, al variare della lunghezza della catena e del parametro di interazione. La valutazione delle proprietà dinamiche del modello è stata effettuata tramite l'utilizzo dell'algoritmo t-DMRG (time dependent - Density Matrix Renormalization Group). Questo metodo numerico, che si basa sulla decimazione dello spazio di Hilbert, ci permette di avere accesso a quantità che caratterizzano la dinamica quali la densità e la velocità di espansione. Da queste sono stati estratti i proli dinamici della densità e della velocità di espansione al variare del valore del parametro di interazione.