218 resultados para Parti républicain
Resumo:
Questa tesi di laurea curriculare si propone come una lettura critica del percorso personale formativo universitario, attraverso l’analisi di tre specifiche e diverse esperienze progettuali, che hanno affrontato con varie accezioni il tema del “Riciclaggio” in architettura. Perché questa ricerca? Il riuso e la rivitalizzazione di materiali, edifici e intere parti di città si pone in stretta connessione con i principi di sviluppo sostenibile, perché concretizza un approccio conservativo di risorse, materiali o ambientali che hanno concluso un loro ciclo di vita; questi devono essere reinventati per essere re-immessei in un nuovo ciclo, producendo nuovo valore e vantaggi importanti in termini di risparmio e sostenibilità per la collettività. La notevole quantità di edifici e aree costruite non utilizzate presenti sul nostro territorio, insieme all’avanzamento della cultura del riciclo e delle tecnologie di recupero, impongono ad un architetto di ripensare un futuro per edifici e porzioni di città che hanno esaurito una fase del loro ciclo di vita, trovando un punto di equilibrio fra conservazione della memoria, adeguamento delle funzioni e innovazione delle tecniche. Oggi tutti i processi di produzione, tra cui quello dell’edilizia, sono tenuti al rispetto di norme e disposizioni per la riduzione dell’impatto ambientale, il risparmio e il recupero delle risorse: per questo i progettisti che nella scena mondiale hanno affrontato nelle loro opere la pratica del riciclo e del riuso si pongono come importanti riferimenti. La prima parte della tesi si compone di tre capitoli: nel primo viene introdotto il tema del consumo delle risorse. A questo proposito il riciclaggio di risorse, che in passato è stato considerato solo un modo per attenuare gli effetti negativi indotti dal nostro modello di sviluppo consumistico, oggi si presenta come un’opportunità di riflessione per molte attività di progettazione di oggetti, da quelli di consumo alle architetture, impegnate nella ricerca di soluzioni più sostenibili; nel secondo capitolo viene delineato il concetto di riciclo delle risorse come risposta allo sviluppo incontrollato e alla insostenibilità dello stile di vita indotto da un modello economico basato sulla pratica “usa e getta”. Nel terzo capitolo verrà esaminato il concetto di riciclo a varie scale d’intervento, dal riuso e riordino del territorio e della città, al riciclo degli edifici fino al riciclaggio di materiale. Saranno presentati alcuni casi studio significativi nel panorama mondiale. Nella seconda parte la tesi si propone una lettura critica di tre progetti realizzati durante la carriera universitaria, tutti caratterizzati dalla necessità di rapportarsi con importanti preesistenze, mediante strategie di rivitalizzazione dell’edificio o della porzione di città interessata dal progetto.
Resumo:
Tesi realizzata presso l’azienda Paglierani S.r.l. con sede a Torriana, per l’esigenza di studiare e ottimizzare dinamicamente il manipolatore “Antrop”. Dopo una breve descrizione dell’azienda e della sua storia, nel secondo capitolo sono racchiuse le informazioni più importanti e utili sulla robotica e sugli azionamenti elettrici, nozioni poi sfruttate durante lo svolgimento dell’elaborato stesso. Successivamente sono descritte in modo dettagliato il robot, le sue funzionalità e le sue caratteristiche meccaniche. Seguono l’analisi cinematica e l’analisi dinamica, suddivisa in due parti a causa della geometria cilindrica del manipolatore. Il sesto capitolo contiene il procedimento di mappatura e la logica con cui è stato scritto. Inoltre, vengono presentati i risultati dei test e le conseguenti considerazioni. Nel capitolo settimo è descritta la formulazione analitica delle sollecitazioni per le leve del robot e ne vengono raffigurati i risultati generali. L’ultimo capitolo è dedicato al bilanciamento statico con masse e molle.
Resumo:
Lo scopo del presente lavoro di tesi riguarda la caratterizzazione di un sensore ottico per la lettura di ematocrito e lo sviluppo dell’algoritmo di calibrazione del dispositivo. In altre parole, utilizzando dati ottenuti da una sessione di calibrazione opportunamente pianificata, l’algoritmo sviluppato ha lo scopo di restituire la curva di interpolazione dei dati che caratterizza il trasduttore. I passi principali del lavoro di tesi svolto sono sintetizzati nei punti seguenti: 1) Pianificazione della sessione di calibrazione necessaria per la raccolta dati e conseguente costruzione di un modello black box. Output: dato proveniente dal sensore ottico (lettura espressa in mV) Input: valore di ematocrito espresso in punti percentuali ( questa grandezza rappresenta il valore vero di volume ematico ed è stata ottenuta con un dispositivo di centrifugazione sanguigna) 2) Sviluppo dell’algoritmo L’algoritmo sviluppato e utilizzato offline ha lo scopo di restituire la curva di regressione dei dati. Macroscopicamente, il codice possiamo distinguerlo in due parti principali: 1- Acquisizione dei dati provenienti da sensore e stato di funzionamento della pompa bifasica 2- Normalizzazione dei dati ottenuti rispetto al valore di riferimento del sensore e implementazione dell’algoritmo di regressione. Lo step di normalizzazione dei dati è uno strumento statistico fondamentale per poter mettere a confronto grandezze non uniformi tra loro. Studi presenti, dimostrano inoltre un mutazione morfologica del globulo rosso in risposta a sollecitazioni meccaniche. Un ulteriore aspetto trattato nel presente lavoro, riguarda la velocità del flusso sanguigno determinato dalla pompa e come tale grandezza sia in grado di influenzare la lettura di ematocrito.
Resumo:
Per eseguire dei test automatizzati su una moto posta su banco a rulli, è necessario un software che permetta di gestire determinati attuatori sulla moto, in modo da poter simulare le condizioni di guida desiderate. Nel modello preso in esame, sono stati utilizzati Simulink e NI VeriStand. Simulink è un ambiente grafico di simulazione e analisi di sistemi dinamici completamente integrato con Matlab, caratterizzato dalla tipica interfaccia a blocchi, che possono essere personalizzati o scelti dalla libreria. Ni VeriStand è invece un ambiente software che permette di elaborare modelli scritti in Simulink in real time. Il presente lavoro è stato incentrato proprio su quest’ultimo aspetto. Per prima cosa è stata esaminata a fondo la parte del modello in Simulink, dopo di che è stata valutata la possibilità di riscrivere alcune parti del modello con un’applicazione interna a Simulink (StateFlow), che si potrebbe prestare meglio a simulare la logica di controllo rispetto a com’è gestita attualmente.
Resumo:
Si riporta inizialmente un’analisi tecnica dell’autopilota Ardupilot, utilizzato con il firmware Arduplane, che predispone la scheda all’utilizzo specifico su velivoli senza pilota ad ala fissa. La parte sostanziale della tesi riguarda invece lo studio delle leggi di controllo implementate su Arduplane e la loro modellazione, assieme ad altre parti del codice, in ambiente Matlab Simulink. Il sistema di controllo creato, chiamato Attitude Flight System, viene verificato con la tecnica del Software In the Loop in un simulatore di volo virtuale modellato anch’esso in Simulink, si utilizza la dinamica di un velivolo UAV di prova e il software FlightGear per l’ambiente grafico. Di fondamentale importanza è la verifica della compatibilità fra il firmware originale e il codice generato a partire dai modelli Simulink, verifica effettuata mediante test di tipo Hardware in the Loop. L’ultima parte della tesi descrive le prove di volo svolte per verificare le prestazioni della scheda su un aeromodello trainer.
Resumo:
Lo scopo della tesi è verificare se esiste nell’uomo una correlazione tra le velocità preferite di corsa\cammino e i parametri antropometrici, e inoltre dare un significato ai segnali acquisiti dall’analisi del passo tramite uno strumento in fase di sviluppo. Sono stati reclutati 20 soggetti mediamente allenati e suddivisi equamente per sesso. I soggetti sono stati sottoposti ad un protocollo di test motori su treadmill diviso in due parti. I dati del primo test sono stati acquisiti manualmente mentre i dati del secondo test sono stati acquisiti da uno strumento e inviati a remoto. L’elaborazione dei risultati di entrambi i test è stata effettuata utilizzando i software Microsoft Excell e Matlab R2010a. Dai dati è emerso un trend significativo per le velocità di corsa in funzione delle altezze, ma non per quelle di cammino. Per le seconde è stata invece riscontrata una netta differenza tra soggetti maschili e femminili che ha portato a classificare i due sessi separatamente. I parametri riguardanti l’analisi del passo del secondo test sono risultati qualitativamente accettabili e confrontabili con la letteratura, ma sarà necessaria una futura validazione sperimentale per la conferma scientifica.
Resumo:
La fissazione esterna si propone come una metodica alternativa molto valida nel trattamento delle fratture di bacino e delle ossa lunghe, nel massimo rispetto delle parti molli e dell’osso, e nel recupero precoce del movimento articolare. I maggiori vantaggi nell’utilizzo dei fissatori esterni sono rappresentati: dalla possibilità di essere utilizzati in una gamma di situazioni complesse, nelle quali le tecniche tradizionali non danno buoni risultati (ad esempio fratture esposte), dalla semplicità del procedimento chirurgico, dal fatto che evitano un secondo tempo chirurgico per la rimozione dei mezzi di sintesi. Contrariamente a tutti i mezzi di sintesi inoltre, sono indicati nel caso di infezioni. A livello articolare invece, la loro presenza, contrariamente a un gesso, consente la mobilizzazione precoce, sia passiva che attiva, dell’arto interessato, fondamentale per una completa ripresa funzionale. L'esperienza di questa tesi ha mostrato che i criteri di valutazione di un sistema di fissazione esterna sono rappresentati da: stabilità dell’impianto, cioè la capacità del sistema di mantenere la riduzione ottenuta resistendo alle forze di sollecitazione nel tempo, deformabilità elastica dell’impianto, cioè la possibilità di consentire e promuovere micromovimenti a livello del focolaio di frattura, versatilità dell’impianto, cioè la possibilità di realizzare montaggi diversi per rispondere a specifiche richieste terapeutiche, massimo rispetto biologico da parte degli elementi di presa, con un’accettabile ingombro per evitare intolleranze soggettive e semplicità d’applicazione. Pertanto i vantaggi clinici sono: minima invasività, sintesi stabile, compressione inter-frammentaria, versatilità, mobilizzazione precoce e carico precoce. Il presente lavoro si è rivelato uno strumento utile per arrivare alla progettazione finale di un sistema circolare e di un sistema ibrido che possano rispondere entrambi a tutti i requisiti sopra elencati. Ha focalizzato innanzitutto la propria attenzione su un sistema circolare, con il fine ultimo di descrivere in quale modo esso risponde all’applicazione di differenti cicli di carico. La particolarità del sistema studiato è rappresentata dalla possibilità di combinare il sistema circolare con un dispositivo articolato di ginocchio, costituendo così un sistema ibrido di fissazione esterna. Il sistema ibrido ha unito la rigidezza garantita dal sistema monolaterale all’elasticità dei sistemi circolari, in modo tale che le forze, che altrimenti agirebbero sul focolaio di frattura, si possano scaricare sia sul dispositivo monolaterale sia sui cerchi. L’elaborato ha focalizzato quindi la sua attenzione sul sistema ibrido, formato dalla combinazione del sistema circolare e del dispositivo monolaterale articolato, con il fine ultimo di descrivere come anch’esso risponde all’applicazione di differenti cicli di carico.
Resumo:
Lo scopo del clustering è quindi quello di individuare strutture nei dati significative, ed è proprio dalla seguente definizione che è iniziata questa attività di tesi , fornendo un approccio innovativo ed inesplorato al cluster, ovvero non ricercando la relazione ma ragionando su cosa non lo sia. Osservando un insieme di dati ,cosa rappresenta la non relazione? Una domanda difficile da porsi , che ha intrinsecamente la sua risposta, ovvero l’indipendenza di ogni singolo dato da tutti gli altri. La ricerca quindi dell’indipendenza tra i dati ha portato il nostro pensiero all’approccio statistico ai dati , in quanto essa è ben descritta e dimostrata in statistica. Ogni punto in un dataset, per essere considerato “privo di collegamenti/relazioni” , significa che la stessa probabilità di essere presente in ogni elemento spaziale dell’intero dataset. Matematicamente parlando , ogni punto P in uno spazio S ha la stessa probabilità di cadere in una regione R ; il che vuol dire che tale punto può CASUALMENTE essere all’interno di una qualsiasi regione del dataset. Da questa assunzione inizia il lavoro di tesi, diviso in più parti. Il secondo capitolo analizza lo stato dell’arte del clustering, raffrontato alla crescente problematica della mole di dati, che con l’avvento della diffusione della rete ha visto incrementare esponenzialmente la grandezza delle basi di conoscenza sia in termini di attributi (dimensioni) che in termini di quantità di dati (Big Data). Il terzo capitolo richiama i concetti teorico-statistici utilizzati dagli algoritimi statistici implementati. Nel quarto capitolo vi sono i dettagli relativi all’implementazione degli algoritmi , ove sono descritte le varie fasi di investigazione ,le motivazioni sulle scelte architetturali e le considerazioni che hanno portato all’esclusione di una delle 3 versioni implementate. Nel quinto capitolo gli algoritmi 2 e 3 sono confrontati con alcuni algoritmi presenti in letteratura, per dimostrare le potenzialità e le problematiche dell’algoritmo sviluppato , tali test sono a livello qualitativo , in quanto l’obbiettivo del lavoro di tesi è dimostrare come un approccio statistico può rivelarsi un’arma vincente e non quello di fornire un nuovo algoritmo utilizzabile nelle varie problematiche di clustering. Nel sesto capitolo saranno tratte le conclusioni sul lavoro svolto e saranno elencati i possibili interventi futuri dai quali la ricerca appena iniziata del clustering statistico potrebbe crescere.
Resumo:
È impossibile implementare sorgenti autenticamente casuali su hardware digitale. Quindi, storicamente, si è fatto ampio uso di generatori di numeri pseudo-casuali, evitando così i costi necessari per la progettazione di hardware analogico dedicato. Tuttavia, le sorgenti pseudo-casuali hanno proprietà (riproducibilità e periodicità) che si trasformano in vulnerabilità, nel caso in cui vengano adottate in sistemi di sicurezza informatica e all’interno di algoritmi crittografici. Oggi la richiesta di generatori di numeri autenticamente casuali è ai suoi massimi storici. Alcuni importanti attori dell’ICT sviluppato proprie soluzioni dedicate, ma queste sono disponibili solo sui sistemi moderni e di fascia elevata. È quindi di grande attualità rendere fruibili generatori autenticamente casuali per sistemi già esistenti o a basso costo. Per garantire sicurezza e al tempo stesso contenere i costi di progetto è opportuno pensare ad architetture che consentano di riusare parti analogiche già disponibili. Particolarmente interessanti risultano alcune architetture che, grazie all’utilizzo di dinamiche caotiche, consentono di basare buona parte della catena analogica di elaborazione su ADC. Infatti, tali blocchi sono ampiamente fruibili in forma integrata su architetture programmabili e microcontrollori. In questo lavoro, si propone un’implementazione a basso costo ed elevata flessibilità di un architettura basata su un ADC, inizialmente concepita all’Università di Bologna. La riduzione di costo viene ottenuta sfruttando il convertitore già presente all’interno di un microcontrollore. L’elevata flessibilità deriva dal fatto che il microcontrollore prescelto mette a disposizione una varietà di interfacce di comunicazione, tra cui quella USB, con la quale è possibile rendere facilmente fruibili i numeri casuali generati. Quindi, l’intero apparato comprende solo un microcontrollore e una minima catena analogica di elaborazione esterna e può essere interfacciato con estrema facilità ad elaboratori elettronici o sistemi embedded. La qualità della proposta, in termini di statistica delle sequenze casuali generate, è stata validata sfruttando i test standardizzati dall’U.S. NIST.
Resumo:
Questo elaborato si propone di introdurre il lettore all’universo di Andrea Camilleri, con particolare riferimento alle peculiarità linguistiche che contraddistinguono le sue opere. La lingua da lui utilizzata risulta in una combinazione di dialetto siciliano, italiano standard et una lingua familiare semi-inventata, a cui si aggiunge la varietà di registri impiegati, che investono tutte le variazioni del repertorio linguistico italiano. Questo tipo di scrittura complica il lavoro del traduttore, in quanto poche sono le lingue straniere che presentano una varietà dialettale simile a quella italiana. In particolare la lingua francese, profondamente legata alla norma e al bon usage, risulta poco elastica e quindi restia agli “sconvolgimenti” che invece Camilleri apporta, con risultati divertenti e apprezzati. L’opera oggetto del nostro studio, La stagione della caccia, insiste particolarmente sulla varietà diatopica, varietà che la traduttrice francese Dominique Vittoz ha deciso di preservare impiegando una parlata regionale poco conosciuta, ma appartenente al suo ambito familiare: il lionese. In tal modo, ricorrendo a tecniche di equivalenza e di compensazione, la traduttrice riesce abilmente e rendere in francese la stessa espressività del testo italiano, caratterizzando i personaggi attraverso il loro modo di esprimersi. Lo scopo del nostro lavoro è quello di dimostrare, attraverso l’analisi di alcune parti del testo, che la variazione diatopica è presente tanto nell’opera originale quanto nella sua traduzione. Inoltre, questa analisi ci permetterà di confrontare la situazione sociolinguistica di Italia e Francia, e di passare in rassegna i problemi e le strategie della traduzione in prospettiva sociolinguistica, con particolare attenzione alla traduzione di un linguaggio non standard. Una questione che continua a suscitare numerosi dibattiti e affascina traduttori, autori e non solo.
Resumo:
I sistemi di intelligenza artificiale vengono spesso messi a confronto con gli aspetti biologici riguardanti il cervello umano. L’interesse per la modularità è in continua crescita, che sta portando a risultati davvero interessanti attraverso l’utilizzo di sistemi artificiali intelligenti, come le reti neuronali. Molte reti, sia biologiche sia artificiali sono organizzate in moduli, i quali rappresentano cluster densi di parti interconnesse fra loro all’interno di una rete complessa. Nel campo dell’ingegneria, si usano design modulari per spiegare come una macchina è costituita da parti separate. Lo studio della struttura e delle funzioni di organismi/processi complessi si basa implicitamente su un principio di organizzazione modulare, vale a dire si dà per acquisito il fatto che siano modulari, cioè composti da parti con forma e/o funzioni diverse. Questo elaborato si propone di esporre gli aspetti fondamentali riguardanti la modularità di reti neuronali, le sue origini evolutive, le condizioni necessarie o sufficienti che favoriscono l’emergere dei moduli e relativi vantaggi. Il primo capitolo fornisce alcune conoscenze di base che permettono di leggere gli esperimenti delle parti successive con consapevolezza teorica più profonda. Si descrivono reti neuronali artificiali come sistemi intelligenti ispirati alla struttura di reti neurali biologiche, soffermandosi in particolare sulla rete feed-forward, sull’algoritmo di backpropagation e su modelli di reti neurali modulari. Il secondo capitolo offre una visione delle origini evolutive della modularità e dei meccanismi evolutivi riguardanti sistemi biologici, una classificazione dei vati tipi di modularità, esplorando il concetto di modularità nell’ambito della psicologia cognitiva. Si analizzano i campi disciplinari a cui questa ricerca di modularità può portare vantaggi. Dal terzo capitolo che inizia a costituire il corpo centrale dell’elaborato, si dà importanza alla modularità nei sistemi computazionali, illustrando alcuni casi di studio e relativi metodi presenti in letteratura e fornendo anche una misura quantitativa della modularità. Si esaminano le varie possibilità di evoluzione della modularità: spontanea, da specializzazione, duplicazione, task-dependent, ecc. passando a emulare l’evoluzione di sistemi neurali modulari con applicazione al noto modello “What-Where” e a vari modelli con caratteristiche diverse. Si elencano i vantaggi che la modularità produce, soffermandosi sull’algoritmo di apprendimento, sugli ambienti che favoriscono l’evoluzione della modularità con una serie di confronti fra i vari tipi, statici e dinamici. In ultimo, come il vantaggio di avere connessioni corte possa portare a sviluppare modularità. L’obiettivo comune è l’emergere della modularità in sistemi neuronali artificiali, che sono usati per applicazioni in numerosi ambiti tecnologici.
Resumo:
Internet e turismo sono due settori che si intersecano profondamente e che da sempre risultano interconnessi. Grazie al progresso delle nuove tecnologie l’ambito turistico ha mutato profondamente i suoi connotati, sia da un punto di vista strutturale sia nella gestione e nella distribuzione delle informazioni. Con l’ingresso nell’era digitale, lo sviluppo delle ICT (Information and Communication Technologies) e l’avvento del web 2.0, la comunicazione turistica si è modificata in modo sostanziale: si è passati da una comunicazione monologica e unidirezionale da esperti a pubblico, a un dialogo tra le varie parti coinvolte, dove la centralità dell’utente/consumatore, che ha acquisito un ruolo proattivo e guadagnato il diritto di parola, si fa sempre più evidente. In particolare la comparsa del web sociale, che si contraddistingue per la sua forte dinamicità e un carattere collaborativo e comunitario, ha permesso lo sviluppo di modelli comunicativi originali, che sono riusciti ad apportare elementi innovativi e peculiari anche nel linguaggio del turismo, varietà linguistica già di per sé piuttosto particolare ed eterogenea. Tramite l’analisi della versione spagnola del portale di viaggi più famoso al mondo (Tripadvisor.es), si è cercato di evidenziare quali caratteristiche mostrate nei testi pubblicati in questo spazio fossero riconducibili all’influenza del linguaggio del turismo dei generi più tradizionali (guide, dépliant, cataloghi) e quali invece fossero gli elementi attribuibili al mezzo computer e quindi appartenessero alla sfera della comunicazione mediata dal computer.
Resumo:
Come indica il titolo, il principale obiettivo di questo elaborato è quello di realizzare uno studio sul genere dell'enigmistica e di acquisire delle competenze teoriche e pratiche in questo campo, esplorandolo anche da un punto di vista traduttivo. A questo scopo, ho suddiviso il lavoro in due parti: nella prima parte mi dedicherò a definire i generi di indovinello ed enigma, con un approfondimento sulle loro origini e sulla loro presenza all'interno della cultura spagnola; nella seconda mi occuperò del rapporto, finora poco studiato, tra enigmistica e traduzione e per fare ciò analizzerò la traduzione in spagnolo di un indovinello di Umberto Eco. Questo lavoro si propone inoltre di contribuire alla diffusione del genere dell'enigmistica, con la speranza che possa offrire uno spunto di ricerca per un possibile studio sulla sua traduzione.
Resumo:
Con questa tesi intendo presentare la mia proposta di traduzione della sezione “École de danse” del sito internet www.operadeparis.fr. Considerato che il numero di pagine previsto per l’elaborato finale di una laurea triennale è estremamente ridotto, sono stata costretta a fare una selezione delle parti da tradurre. La traduzione dell’intero sito web, infatti, avrebbe richiesto una trattazione molto più lunga e dettagliata, in quanto le informazioni riportate e gli argomenti affrontati sono davvero innumerevoli. Pertanto, ho scelto di incentrare il mio lavoro su quelle che sono le mie passioni: da un lato il chiodo fisso per la danza, arte che pratico da quando ero bambina e che adesso insegno ai più piccoli; dall’altro, l’amore per la Francia e, più nello specifico, per Parigi. Di conseguenza, mi è sembrato doveroso rendere omaggio a Parigi e alla danza applicando le mie conoscenze linguistiche all’ambito traduttivo. La mia tesi si articola dunque come segue. Il primo capitolo si focalizza sul concetto di lingua speciale, grazie all’approfondimento personale di testi sulla didattica e sulla prassi della traduzione specializzata, con particolare attenzione alla lingua speciale della danza. Nel secondo capitolo, affronterò la particolare modalità di scrittura del web, sul quale si incentra la mia traduzione, che sarà presentata immediatamente a seguire, nel terzo capitolo. Al termine della mia proposta traduttiva, sarà possibile trovare tutti i miei commenti relativamente agli aspetti morfosintattici, lessicali e terminologici presenti nelle parti da me selezionate al fine della traduzione. Per concludere, qualche osservazione finale sulla stesura dell’intero elaborato finale e bibliografia e sitografia da me consultate a supporto del mio lavoro di ricerca.
Resumo:
Capire come ottenere l'informazione accessibile, cioè quanta informazione classica si può estrarre da un processo quantistico, è una delle questioni più intricate e affascinanti nell'ambito della teoria dell'informazione quantistica. Nonostante l'importanza della nozione di informazione accessibile non esistono metodi generali per poterla calcolare, esistono soltanto dei limiti, i più famosi dei quali sono il limite superiore di Holevo e il limite inferiore di Josza-Robb-Wootters. La seguente tesi fa riferimento a un processo che coinvolge due parti, Alice e Bob, che condividono due qubits. Si considera il caso in cui Bob effettua misure binarie sul suo qubit e quindi indirizza lo stato del qubit di Alice in due possibili stati. L'obiettivo di Alice è effettuare la misura ottimale nell'ottica di decretare in quale dei due stati si trova il suo qubit. Lo strumento scelto per studiare questo processo va sotto il nome di 'quantum steering ellipsoids formalism'. Esso afferma che lo stato di un sistema di due qubit può essere descritto dai vettori di Bloch di Alice e Bob e da un ellissoide nella sfera di Bloch di Alice generato da tutte le possibili misure di Bob. Tra tutti gli stati descritti da ellissoidi ce ne sono alcuni che manifestano particolari proprietà, per esempio gli stati di massimo volume. Considerando stati di massimo volume e misure binarie si è riuscito a trovare un limite inferiore all'informazione accessibile per un sistema di due qubit migliore del limite inferiore di Josza-Robb-Wootters. Un altro risultato notevole e inaspettato è che l'intuitiva e giustificata relazione 'distanza tra i punti nell'ellissoide - mutua informazione' non vale quando si confrontano coppie di punti ''vicine'' tra loro e lontane dai più distanti.