459 resultados para curva, grafico di funzione, coniche, equazioni parametriche, equazioni cartesiane.
Resumo:
XCModel è un sistema CAD, basato su NURBS, realizzato ed utilizzato in ambiente accademico. È composto da quattro pacchetti per la modellazione 2D, 3D e la resa foto-realistica, ognuno dotato di una propria interfaccia grafica. Questi pacchetti sono in costante evoluzione: sia per le continua evoluzioni dell’hardware che ai cambiamenti degli standard software. Il sistema nel complesso raccoglie la conoscenza e l’esperienza nella modellazione geometrica acquisita nel tempo dai progettisti. XCModel, insieme ai suoi sottosistemi, sono stati progettati per diventare un laboratorio di insegnamento e ricerca utile a sperimentare ed imparare metodi ed algoritmi nella modellazione geometrica e nella visualizzazione grafica. La natura principalmente accademica, e la conseguente funzione divulgativa, hanno richiesto continui aggiornamenti del programma affinché potesse continuare a svolgere la propria funzione nel corso degli anni. La necessità di continuare a ad evolversi, come software didattico, anche con il moderno hardware, è forse il principale motivo della scelta di convertire XCModel a 64 bit; una conversione che ho svolto in questa tesi. Come molte altre applicazioni realizzate a 32 bit, la maggior parte del codice viene eseguito correttamente senza problemi. Vi sono però una serie di problematiche, a volte molto subdole, che emergono durante la migrazione delle applicazioni in generale e di XCModel in particolare. Questa tesi illustra i principali problemi di portabilità riscontrati durante il porting a 64 bit di questo pacchetto seguendo il percorso da me intrapreso: mostrerò gli approcci adottati, i tool utilizzati e gli errori riscontrati.
Resumo:
Il presente lavoro si inserisce nell’ambito del progetto Language Toolkit, portato avanti dalla Camera di Commercio di Forlì-Cesena e dalla Scuola di Lingue, Letterature, Traduzione e Interpretazione di Forlì. Il progetto coinvolge gli studenti della Scuola e le piccole-medie aziende del territorio provinciale e ha due obiettivi principali: creare occasioni di contatto tra il mondo accademico e quello professionale e favorire l’internazionalizzazione delle aziende del territorio. L’azienda con cui si è collaborato è la Pieri s.r.l. di Pievesestina di Cesena, attiva nel settore di confezionamento e movimentazione di carichi pallettizzati. Ci si è occupati principalmente di sistematizzare la terminologia aziendale in ottica trilingue (italiano - inglese - francese), partendo dall’analisi della documentazione aziendale. Sono stati individuati due gruppi di destinatari: i dipendenti dell’azienda e i traduttori esterni a cui essa ricorre saltuariamente. Viste le esigenze molto diverse dei due gruppi, sono stati elaborati due termbase con caratteristiche distinte, volte a renderli massimamente funzionali rispetto agli scopi. Dopo un breve inquadramento della situazione di partenza focalizzato sul progetto, l’azienda e i materiali di lavoro (capitolo 1), sono state fornite le basi teoriche (capitolo 2) che hanno guidato l’attività pratica di documentazione e di estrazione terminologica (capitolo 3). Sono stati presentati i due database terminologici costruiti, motivando le scelte compiute per differenziare le schede terminologiche in funzione dei destinatari (capitolo 4). Infine, si è tentato di valutare le risorse costruite attraverso la loro applicazione pratica in due attività: l’analisi della versione francese del manuale di istruzioni di una delle macchine Pieri e la traduzione verso il francese di alcune offerte commerciali, svolta utilizzando il programma di traduzione assistita SDL Trados Studio (capitolo 5).
Resumo:
La tesi enuncia e spiega i vari metodi e le varie tecnologie utilizzate dalle applicazioni web per inserire i dati e visualizzare i risultati. Per ciò che concerne i metodi vengono considerati l'input dei dati (come tastiera, fotocamera, disegni geometrici e scrittura a mano) e la loro renderizzazione (visuale, testuale, grafico, ecc). Vengono infine evidenziate le principali tecnologie relative all'input dei dati (come tastiere virtuali, OCR e inchiostro digitale) e all'output (LaTeX, MathML, MathJax, ecc).
Resumo:
In ecologia della pesca, i fattori o indicatori della “condizione” di un organismo forniscono molte informazioni sulle caratteristiche di adattamento dei pesci all’ambiente e sul loro ruolo nell’ecosistema. La “condizione” include molte caratteristiche strutturali ed energetiche che possono variare in funzione dell’ontogenesi, del ciclo riproduttivo, ma anche in funzione delle caratteristiche dell’ambiente, incluso il grado di stress al quale è sottoposta una specie (es. la pressione di pesca). L’obiettivo del presente studio sperimentale è stato valutare eventuali differenze nell’abbondanza, nei parametri di popolazione, nella struttura demografica e negli indicatori di “condizione” di due specie, Merluccius merluccius (Pisces: Gadiformes) e Galeus melastomus (Pisces: Carcharhiniformes), in due diverse aree: Toscana settentrionale e meridionale, differenti per caratteristiche ambientali e pressione di pesca. Nella prima parte dell’analisi, sono stati confrontati gli indici di densità e biomassa, la struttura di taglia delle due popolazioni, su dati estratti dagli archivi storici delle campagne di pesca sperimentale MEDITS dal 1994 al 2013. Nella seconda parte dell’analisi invece, sono stati analizzati 1000 individui provenienti dalla campagna MEDITS 2014, integrati con campioni provenienti dallo sbarcato commerciale per il biennio 2014-2015. Gli individui di M. merluccius sono stati ripartiti in due classi di taglia (I = individui ≤ 18 cm LT; II = individui > 18 cm LT), quelli di G. melastomus in tre classi di taglia (I = individui ≤ 20 cm LT; II = individui 20 cm< x ≤ 35 cm LT; III= individui > 35 cm LT), suddivisi rispettivamente in 50 maschi e 50 femmine, per ogni classe. E’ stato condotto lo studio della crescita relativa attraverso l’analisi della relazione taglia/peso e lo studio della condizione tramite i seguenti indicatori: il fattore K di Fulton, l’indice epatosomatico (HSI) e l’indice gonadosomatico (GSI). I risultati di questa tesi hanno evidenziato differenze nei popolamenti, riconducibili alle diverse condizioni ambientali e alla pressione di pesca, tra le due aree indagate. L’area sud, interessata da un più intenso sforzo di pesca esercitato sui fondali della piattaforma e della scarpata continentale e da una morfologia del fondale differente, mostra una diversità in termini di crescita relativa e stato della “condizione”, che risulta più elevata in entrambe le specie, rispetto all’area settentrionale, caratterizzata invece da uno sforzo di pesca meno intenso, incentrato sull’ampia piattaforma continentale.
Resumo:
In questo lavoro viene presentato un recente modello di buco nero che implementa le proprietà quantistiche di quelle regioni dello spaziotempo dove non possono essere ignorate, pena l'implicazione di paradossi concettuali e fenomenologici. In suddetto modello, la regione di spaziotempo dominata da comportamenti quantistici si estende oltre l'orizzonte del buco nero e suscita un'inversione, o più precisamente un effetto tunnel, della traiettoria di collasso della stella in una traiettoria di espansione simmetrica nel tempo. L'inversione impiega un tempo molto lungo per chi assiste al fenomeno a grandi distanze, ma inferiore al tempo di evaporazione del buco nero tramite radiazione di Hawking, trascurata e considerata come un effetto dissipativo da studiarsi in un secondo tempo. Il resto dello spaziotempo, fuori dalla regione quantistica, soddisfa le equazioni di Einstein. Successivamente viene presentata la teoria della Gravità Quantistica a Loop (LQG) che permetterebbe di studiare la dinamica della regione quantistica senza far riferimento a una metrica classica, ma facendo leva sul contenuto relazionale del tessuto spaziotemporale. Il campo gravitazionale viene riformulato in termini di variabili hamiltoniane in uno spazio delle fasi vincolato e con simmetria di gauge, successivamente promosse a operatori su uno spazio di Hilbert legato a una vantaggiosa discretizzazione dello spaziotempo. La teoria permette la definizione di un'ampiezza di transizione fra stati quantistici di geometria spaziotemporale, applicabile allo studio della regione quantistica nel modello di buco nero proposto. Infine vengono poste le basi per un calcolo in LQG dell'ampiezza di transizione del fenomeno di rimbalzo quantistico all'interno del buco nero, e di conseguenza per un calcolo quantistico del tempo di rimbalzo nel riferimento di osservatori statici a grande distanza da esso, utile per trattare a posteriori un modello che tenga conto della radiazione di Hawking e, auspicatamente, fornisca una possibile risoluzione dei problemi legati alla sua esistenza.
Resumo:
In questo lavoro di tesi è stata studiata l'anisotropia magnetica di film sottili epitassiali di La0.7Sr0.3MnO3 (LSMO), cresciuti con la tecnica Channel Spark Ablation su substrati monocristallini di SrTiO3 (001). L'interesse nei confronti di questi materiali nasce dal fatto che, grazie alla loro proprietà di half-metallicity, sono usati come iniettori di spin in dispositivi per applicazioni in spintronica, l'elettronica che considera elemento attivo per l'informazione non solo la carica elettrica ma anche lo spin dei portatori. Un tipico esempio di dispositivo spintronico è la valvola di spin (un dispositivo costituito da due film ferromagnetici metallici separati da uno strato conduttore o isolante) il cui stato resistivo dipende dall'orientazione relativa dei vettori magnetizzazione (parallela o antiparallela) degli strati ferromagnetici. E’ quindi di fondamentale importanza conoscere i meccanismi di magnetizzazione dei film che fungono da iniettori di spin. Questa indagine è stata effettuata misurando cicli di isteresi magnetica grazie ad un magnetometro MOKE (magneto-optical Kerr effect). Le misure di campo coercitivo e della magnetizzazione di rimanenza al variare dell'orientazione del campo rispetto al campione, permettono di identificare l'anisotropia, cioè gli assi di facile e difficile magnetizzazione. I risultati delle misure indicano una diversa anisotropia in funzione dello spessore del film: anisotropia biassiale (cioè con due assi facili di magnetizzazione) per film spessi 40 nm e uniassiale (un asse facile) per film spessi 20 nm. L'anisotropia biassiale viene associata allo strain che il substrato cristallino induce nel piano del film, mentre l'origine dell'uniassialità trova la giustificazione più probabile nella morfologia del substrato, in particolare nella presenza di terrazzamenti che potrebbero indurre una step-induced anisotropy. Il contributo di questi fattori di anisotropia alla magnetizzazione è stato studiato anche in temperatura.
Resumo:
Lo strumento MIPAS, operativo a bordo del satellite polare ENVISAT negli anni dal 2002 al 2012, ha misurato spettri di emissione nel medio infrarosso utilizzando la tecnica di scansione del lembo atmosferico. L'Agenzia Spaziale Europea (ESA), mediante un algoritmo di inversione ottimizzato, ha ricavato dagli spettri di MIPAS la distribuzione verticale di diversi composti chimici minoritari in stratosfera e alta troposfera. Tra questi composti figurano l'ozono (O3) e il CFC-11. Lo strato di ozono stratosferico svolge una funzione fondamentale come schermo della radiazione ultravioletta solare, altrimenti dannosa per gli esseri viventi sulla terra. D'altra parte, da alcuni decenni i cosiddetti cloro-fluoro carburi (CFC), tra cui la molecola di CCl3F (indicata sinteticamente con la sigla CFC-11) sono ritenuti responsabili della diminuzione generale dell'ozono stratosferico. Per questo motivo nel 1987 a Montreal è stato siglato un accordo internazionale per limitare l'immissione dei CFC in atmosfera. A partire dalla fine degli anni '80, in base a questo accordo, ci si aspetta quindi una progressiva riduzione dei CFC e un conseguente graduale recupero della concentrazione di ozono. Le misure di MIPAS, con copertura geografica globale, offrono una possibilità assai interessante per la verifica di queste tendenze attese. In questo lavoro di tesi, i profili verticali di frazione volumetrica (VMR) di ozono e CFC-11 ricavati dal processore di ESA versione 6.0 sono stati interpolati a livelli di pressione costante, raggruppati per bande di latitudine e mediati su intervalli di tempo mensili. Abbiamo quindi sviluppato un modello di tendenza parametrico che include un termine costante, uno lineare, due termini dell'oscillazione quasi biennale (QBO), un termine di flusso solare radio e diversi termini armonici in seno e coseno con periodo diverso. Il modello è stato quindi adattato mediante un algoritmo di minimizzazione di Levenberg-Marquardt alle medie mensili ottenute dalle misure di MIPAS per tutto il periodo che va da luglio 2002 ad aprile 2012. Le stime di tendenza ottenute per ozono e CFC-11 sono statisticamente significative e, a seconda della latitudine e del livello di pressione considerato, assumono una gamma di valori che va da -0.15 ppmv/decade a +0.44 ppmv/decade per l'ozono e una gamma di valori che va da -50.2 pptv/decade a +6.5 pptv/decade per il CFC-11. Abbiamo ottenuto tendenze per la maggior parte leggermente positive per l'ozono e quasi ovunque fortemente negative per il CFC-11, risultato in accordo con le disposizioni emanate a seguito del Protocollo di Montreal e in buon accordo anche con lavori precedentemente pubblicati in letteratura. Infine abbiamo stimato l'errore sistematico sulle tendenze ricavate, causato dalla deriva strumentale dovuta alla non-linearità della risposta dei rivelatori, che varia a seguito dell'invecchiamento dei rivelatori stessi.
Resumo:
Il presente lavoro di tesi, svolto presso i laboratori dell'X-ray Imaging Group del Dipartimento di Fisica e Astronomia dell'Università di Bologna e all'interno del progetto della V Commissione Scientifica Nazionale dell'INFN, COSA (Computing on SoC Architectures), ha come obiettivo il porting e l’analisi di un codice di ricostruzione tomografica su architetture GPU installate su System-On-Chip low-power, al fine di sviluppare un metodo portatile, economico e relativamente veloce. Dall'analisi computazionale sono state sviluppate tre diverse versioni del porting in CUDA C: nella prima ci si è limitati a trasporre la parte più onerosa del calcolo sulla scheda grafica, nella seconda si sfrutta la velocità del calcolo matriciale propria del coprocessore (facendo coincidere ogni pixel con una singola unità di calcolo parallelo), mentre la terza è un miglioramento della precedente versione ottimizzata ulteriormente. La terza versione è quella definitiva scelta perché è la più performante sia dal punto di vista del tempo di ricostruzione della singola slice sia a livello di risparmio energetico. Il porting sviluppato è stato confrontato con altre due parallelizzazioni in OpenMP ed MPI. Si è studiato quindi, sia su cluster HPC, sia su cluster SoC low-power (utilizzando in particolare la scheda quad-core Tegra K1), l’efficienza di ogni paradigma in funzione della velocità di calcolo e dell’energia impiegata. La soluzione da noi proposta prevede la combinazione del porting in OpenMP e di quello in CUDA C. Tre core CPU vengono riservati per l'esecuzione del codice in OpenMP, il quarto per gestire la GPU usando il porting in CUDA C. Questa doppia parallelizzazione ha la massima efficienza in funzione della potenza e dell’energia, mentre il cluster HPC ha la massima efficienza in velocità di calcolo. Il metodo proposto quindi permetterebbe di sfruttare quasi completamente le potenzialità della CPU e GPU con un costo molto contenuto. Una possibile ottimizzazione futura potrebbe prevedere la ricostruzione di due slice contemporaneamente sulla GPU, raddoppiando circa la velocità totale e sfruttando al meglio l’hardware. Questo studio ha dato risultati molto soddisfacenti, infatti, è possibile con solo tre schede TK1 eguagliare e forse a superare, in seguito, la potenza di calcolo di un server tradizionale con il vantaggio aggiunto di avere un sistema portatile, a basso consumo e costo. Questa ricerca si va a porre nell’ambito del computing come uno tra i primi studi effettivi su architetture SoC low-power e sul loro impiego in ambito scientifico, con risultati molto promettenti.
Resumo:
Questa tesi si pone l'obiettivo di applicare un metodo lineare per l'inversione delle curve di dispersione delle onde superficiali di Rayleigh da rumore sismico, al fine di descrivere con maggior definizione la struttura della crosta terrestre in corrispondenza dell'Italia settentrionale e confrontarlo con il modello di riferimento. Si è fatto uso del processo di cross-correlazione applicato al rumore sismico per ricostruire la Funzione di Green per ogni coppia di stazioni. Sono state considerate circa 100 stazioni, tutte nel Nord-Italia. I segnali ottenuti sono costituiti principalmente da onde di superficie, in particolare onde di Rayleigh, le quali dominano i segnali in ampiezza. Per periodi compresi tra 1s e 50s, per ogni raggio tra coppie di stazioni, è stata misurata la velcoità di gruppo tramite l'utilizzo del software EGFAnalysisTimeFreq per Matlab. Le curve di dispersione così ottenute sono state utilizzate come dato per la risoluzione del problema inverso, al fine di ottenere mappe2D della velocità di gruppo che è fortemente dipendente dalle caratteristiche del mezzo. Infine queste ultime sono state confrontate con mappe di un modello esistente per la regione (Molinari et al. [22]).
Resumo:
In questo lavoro, svolto presso l'Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori (I.R.S.T.) (I.R.C.C.S) di Meldola, si sono studiate le caratteristiche di un tomografo Philips Brilliance iCT 256 strati, con l'obiettivo di individuare le variazioni di qualità delle immagini e di dose in funzione dei parametri di acquisizione dello strumento, al fine di una successiva ottimizzazione dei protocolli degli esami tomografici. Le valutazioni sono state fatte sul tomografo multistrato Philips mediante uso di diversi fantocci e dosimetri, seguendo le linee guida della pubblicazione per il controllo di qualità in tomografia computerizzata dell'International Atomic Energy Agency (IAEA). Si è utilizzato il fantoccio Catphan per la caratterizzazione della qualità dell'immagine, acquisendo immagini sia in modalità assiale che spirale e variando parametri di acquisizione quali spessore di strato, kV, mAs e pitch. Per le varie combinazioni di questi parametri sono state misurate, mediante l'utilizzo dei software ImageJ ed ImageOwl, grandezze oggettive quali risoluzione spaziale, risoluzione a basso contrasto e rumore dell'immagine acquisita. Due fantocci di polimetilmetacrilato (PMMA) head e body sono serviti, insieme ad una camera a ionizzazione di tipo pencil, per la misura di indici di dose per la tomografia computerizzata (CTDI). L'irraggiamento di questi strumenti è stato effettuato a diversi valori di tensione del tubo radiogeno e ha permesso di confrontare i valori CTDI misurati con quelli forniti dal tomografo. Si sono quindi calcolate le dosi efficaci di alcuni protocolli della macchina per poi confrontarle con livelli di riferimento diagnostici (DRL), strumenti utilizzati con l'obiettivo di raggiungere valori di dose adeguati per lo scopo clinico dell'esame. Come ulteriore valutazione dosimetrica, si è utilizzato il fantoccio antropomorfo Rando, in cui sono stati inseriti dei dosimetri a termoluminescenza (TLD) per la misura della dose organo. Dai risultati si osserva un andamento inversamente proporzionale tra tensione del tubo radiogeno e contrasto dell'immagine. Impostando valori alti di kV si ottiene però un'immagine meno rumorosa. Oltre alla tensione del tubo, si è valutato come anche lo spessore di strato e la corrente influiscano sul rumore dell'immagine. I risultati ottenuti dimostrano che i valori dei parametri oggettivi di qualità delle immagini rientrano nei limiti di attendibilità, così come i valori di CTDI visualizzati dal tomografo. Lo studio della dipendenza di questi parametri oggettivi dalle impostazione di scansione permette di ottimizzare l'acquisizione TC, ottenendo un buon compromesso fra dose impartita e qualità dell'immagine.
Resumo:
La tesi analizza l'attuale offerta dell'advertising online, ne individua alcune problematiche e valuta una possibile soluzione, tramite l'elaborazione di un nuovo modello di costo. Tale modello è basato sul tempo di persistenza dello sguardo rilevato tramite dispositivo di eye-tracking. L'obiettivo della tesi è quindi la creazione di un tool per raccogliere i dati dal dispositivo e, infine, restituire i risultati grafici e testuali generati dalla funzione di costo.
Resumo:
L'argomento trattato in questo elaborato riguarda le teorie, metodologie e motivazioni che hanno portato allo sviluppo di un'applicazione web per la riconciliazione incassi, funzione peculiare della contabilità di un'azienda. Alla base delle scelte progettuali adottate, vi è una serie di studi sui processi e su come questi possano influenzare l'analisi e lo sviluppo dell'applicazione stessa. Per poter effettuare una transizione di questo tipo, sono state adottate metodologie come il Business Process Management e inevitabilmente il Business Process Re-engineering, che consentono di modificare, migliorare, adattare e ottimizzare i processi.
Resumo:
Il progetto di tesi si pone come obiettivo la riqualificazione urbana del fronte mare della città di Rimini e la progettazione di un nuovo centro culturale polifunzionale. La costruzione di nuovi margini urbani, viene qui proposta secondo una reinterpretazione di un carattere tipicamente funzionale delle città di costa del litorale adriatico: la proiezione della funzione urbana oltre la linea di costa, con la costruzione di moli oltre l’edificato. “La città allunga la mano nell’acqua.” La tesi riprende questo aspetto di tipicità e propone una serie di “nuovi moli”, strutture polifunzionali destinate a incentivare quale risorsa fruitiva per il pubblico, stanziale o turistico, il rapporto col mare Adriatico. Anche in relazione a queste “proiezioni” oltre il litorale marino la tesi ha analizzato le forme dell’architettura di ultima generazione, cercando di recepirne i significati espressi attraverso la definizione formale; da qui parte il percorso della formulazione compositiva espressa nelle tavole grafiche, nelle quali si sottolinea il rapporto funzionale in relazione alla nova forma urbis e alla ricaduta sul nuovo assetto ambientale. E’, in sintesi, l’accettabilità di questo e dell’integrazione paesaggistica che la tesi vuole sostenere, attraverso il lungo percorso analitico e progettuale affrontato.
Resumo:
Nella tesi vengono proposte una modellazione di un quadrotor affetto da un campo vettoriale incognito aerodinamico e la sua identificazione basata su non linear geometric approach e su reti neurali a funzione di base radiale (RBF). Il non linear geometric approach viene utilizzato per il disaccoppiamento delle componenti incognite aerodinamiche mentre le modellazione RBF dei coefficienti permette di applicare un algoritmo ai minimi quadrati per l'identificazione del sistema. Infine viene implementato un simulatore in ambiente MATLAB Simulink per la validazione della metodologia. Le simulazioni effettuate dimostrano la bontà del metodo proposto.
Resumo:
Argomento di questa tesi è l’ottimizzazione di un portafoglio, cioè, dato un portafoglio, massimizzarne il guadagno minimizzando il rischio. Nel primo capitolo illustrerò le nozioni matematiche basi della finanza, come i mercati discreti, la definizione di portafoglio, il modello binomiale,l’arbitraggio e la misura martingala. Nel secondo capitolo presenterò i due metodi risolutivi del problema di ottimizzazione:il Metodo Martingala e il Metodo della Programmazione Dinamica. Nell’ultimo capitolo parto dalla funzione d'utilità esponenziale e calcolo il portafoglio ottimizzato utilizzando i due metodi precedenti.