986 resultados para riconoscimento volto alterazione digitale immagini morphing
Resumo:
Questa tesi è incentrata sulla traduzione del libro portoghese Lisboa Misteriosa di Marina Taveres Dias e su come questo libro possa essere analizzato sotto una prospettiva turistica. Il libro è basato sulla capitale del Portogallo, Lisbona, e il suo scopo principale è narrare fatti storici e culturali riguardo la città, dove la realtà si perde nella leggenda. La tesi vuole mostrare come un simile libro storico-culturale può essere un valido strumento nella prospettiva turistica. Il primo capitolo fornisce una presentazione generale del libro, descrivendo i temi, lo stile, l’uso delle immagini all’interno del testo e una breve biografia dell’autrice. Il secondo capitolo presenta i principali aspetti della sociologia del turismo, che serviranno per meglio inquadrare le considerazioni successive. Segue una breve analisi di tra guide turistiche italiane e una comparazione tra queste e il libro tradotto. L’ultima parte del capitolo è dedicata ad illustrare come questo volume mette in luce questi aspetti sociologici del turismo e di come può creare una nuova prospettiva per il turista. Gli ultimi due capitoli presentano la traduzione del libro e l’analisi e il commento riguardo a quest’ultima.
Resumo:
In vielen Industriezweigen, zum Beispiel in der Automobilindustrie, werden Digitale Versuchsmodelle (Digital MockUps) eingesetzt, um die Konstruktion und die Funktion eines Produkts am virtuellen Prototypen zu überprüfen. Ein Anwendungsfall ist dabei die Überprüfung von Sicherheitsabständen einzelner Bauteile, die sogenannte Abstandsanalyse. Ingenieure ermitteln dabei für bestimmte Bauteile, ob diese in ihrer Ruhelage sowie während einer Bewegung einen vorgegeben Sicherheitsabstand zu den umgebenden Bauteilen einhalten. Unterschreiten Bauteile den Sicherheitsabstand, so muss deren Form oder Lage verändert werden. Dazu ist es wichtig, die Bereiche der Bauteile, welche den Sicherhabstand verletzen, genau zu kennen. rnrnIn dieser Arbeit präsentieren wir eine Lösung zur Echtzeitberechnung aller den Sicherheitsabstand unterschreitenden Bereiche zwischen zwei geometrischen Objekten. Die Objekte sind dabei jeweils als Menge von Primitiven (z.B. Dreiecken) gegeben. Für jeden Zeitpunkt, in dem eine Transformation auf eines der Objekte angewendet wird, berechnen wir die Menge aller den Sicherheitsabstand unterschreitenden Primitive und bezeichnen diese als die Menge aller toleranzverletzenden Primitive. Wir präsentieren in dieser Arbeit eine ganzheitliche Lösung, welche sich in die folgenden drei großen Themengebiete unterteilen lässt.rnrnIm ersten Teil dieser Arbeit untersuchen wir Algorithmen, die für zwei Dreiecke überprüfen, ob diese toleranzverletzend sind. Hierfür präsentieren wir verschiedene Ansätze für Dreiecks-Dreiecks Toleranztests und zeigen, dass spezielle Toleranztests deutlich performanter sind als bisher verwendete Abstandsberechnungen. Im Fokus unserer Arbeit steht dabei die Entwicklung eines neuartigen Toleranztests, welcher im Dualraum arbeitet. In all unseren Benchmarks zur Berechnung aller toleranzverletzenden Primitive beweist sich unser Ansatz im dualen Raum immer als der Performanteste.rnrnDer zweite Teil dieser Arbeit befasst sich mit Datenstrukturen und Algorithmen zur Echtzeitberechnung aller toleranzverletzenden Primitive zwischen zwei geometrischen Objekten. Wir entwickeln eine kombinierte Datenstruktur, die sich aus einer flachen hierarchischen Datenstruktur und mehreren Uniform Grids zusammensetzt. Um effiziente Laufzeiten zu gewährleisten ist es vor allem wichtig, den geforderten Sicherheitsabstand sinnvoll im Design der Datenstrukturen und der Anfragealgorithmen zu beachten. Wir präsentieren hierzu Lösungen, die die Menge der zu testenden Paare von Primitiven schnell bestimmen. Darüber hinaus entwickeln wir Strategien, wie Primitive als toleranzverletzend erkannt werden können, ohne einen aufwändigen Primitiv-Primitiv Toleranztest zu berechnen. In unseren Benchmarks zeigen wir, dass wir mit unseren Lösungen in der Lage sind, in Echtzeit alle toleranzverletzenden Primitive zwischen zwei komplexen geometrischen Objekten, bestehend aus jeweils vielen hunderttausend Primitiven, zu berechnen. rnrnIm dritten Teil präsentieren wir eine neuartige, speicheroptimierte Datenstruktur zur Verwaltung der Zellinhalte der zuvor verwendeten Uniform Grids. Wir bezeichnen diese Datenstruktur als Shrubs. Bisherige Ansätze zur Speicheroptimierung von Uniform Grids beziehen sich vor allem auf Hashing Methoden. Diese reduzieren aber nicht den Speicherverbrauch der Zellinhalte. In unserem Anwendungsfall haben benachbarte Zellen oft ähnliche Inhalte. Unser Ansatz ist in der Lage, den Speicherbedarf der Zellinhalte eines Uniform Grids, basierend auf den redundanten Zellinhalten, verlustlos auf ein fünftel der bisherigen Größe zu komprimieren und zur Laufzeit zu dekomprimieren.rnrnAbschießend zeigen wir, wie unsere Lösung zur Berechnung aller toleranzverletzenden Primitive Anwendung in der Praxis finden kann. Neben der reinen Abstandsanalyse zeigen wir Anwendungen für verschiedene Problemstellungen der Pfadplanung.
Resumo:
Magnetic memories are a backbone of today's digital data storage technology, where the digital information is stored as the magnetic configuration of nanostructured ferromagnetic bits. Currently, the writing of the digital information on the magnetic memory is carried out with the help of magnetic fields. This approach, while viable, is not optimal due to its intrinsically high energy consumption and relatively poor scalability. For this reason, the research for different mechanisms that can be used to manipulate the magnetic configuration of a material is of interest. In this thesis, the control of the magnetization of different nanostructured materials with field-free mechanisms is investigated. The magnetic configuration of these nanostructured materials was imaged directly with high resolution x-ray magnetic microscopy. rnFirst of all, the control of the magnetic configuration of nanostructured ferromagnetic Heusler compounds by fabricating nanostructures with different geometries was analyzed. Here, it was observed that the magnetic configuration of the nanostructured elements is given by the competition of magneto-crystalline and shape anisotropy. By fabricating elements with different geometries, we could alter the point where these two effects equilibrate, allowing for the possibility to tailor the magnetic configuration of these nanostructured elements to the required necessities.rnThen, the control of the magnetic configuration of Ni nanostructures fabricated on top of a piezoelectric material with the magneto-elastic effect (i.e. by applying a piezoelectric strain to the Ni nanostructures) was investigated. Here, the magneto-elastic coupling effect gives rise to an additional anisotropy contribution, proportional to the strain applied to the magnetic material. For this system, a reproducible and reversible control of the magnetic configuration of the nanostructured Ni elements with the application of an electric field across the piezoelectric material was achieved.rnFinally, the control of the magnetic configuration of La0.7Sr0.3MnO3 (LSMO) nanostructures with spin-polarized currents was studied. Here, the spin-transfer torque effect was employed to achieve the displacement of magnetic domain walls in the LSMO nanostructures. A high spin-transfer torque efficiency was observed for LSMO at low temperatures, and a Joule-heating induced hopping of the magnetic domain walls was observed at room temperatures, allowing for the analysis of the energetics of the domain walls in LSMO.rnThe results presented in this thesis give thus an overview on the different field-free approaches that can be used to manipulate and tailor the magnetization configuration of a nanostructured material to the various technological requirements, opening up novel interesting possibilities for these materials.
Resumo:
In questo elaborato ho realizzato una breve analisi del concetto di 'Littérature-Monde' così come sostenuto da vari autori di lingua francese che rivendicano un mondo letterario più variegato e aperto, cosa che si realizzerebbe soprattutto nel pari riconoscimento tra scrittori francesi e scrittori francofoni: questi ultimi infatti sono stati per lungo tempo considerati ai margini della letteratura francese in quanto stranieri. Questa analisi è stata propedeutica per arrivare a capire il senso profondo del testo 'La cave de ma mémoire, le toit de ma maison sont des mots français' di Tahar Ben Jelloun, tratto dalla raccolta di testi "Pour une littérature-monde", che ho poi tradotto dal francese all'italiano.
Resumo:
L’obiettivo di questo elaborato consiste nel ribadire l’esigenza di promuovere la professionalizzazione della categoria degli interpreti giudiziari nell’ottica di un riconoscimento, una regolarizzazione e una tutela delle persone che assumono un ufficio tanto oneroso e così profondamente intrecciato con il principio di equità del procedimento giudiziario, fondamento di uno Stato civile.
Resumo:
La tesi enuncia e spiega i vari metodi e le varie tecnologie utilizzate dalle applicazioni web per inserire i dati e visualizzare i risultati. Per ciò che concerne i metodi vengono considerati l'input dei dati (come tastiera, fotocamera, disegni geometrici e scrittura a mano) e la loro renderizzazione (visuale, testuale, grafico, ecc). Vengono infine evidenziate le principali tecnologie relative all'input dei dati (come tastiere virtuali, OCR e inchiostro digitale) e all'output (LaTeX, MathML, MathJax, ecc).
Resumo:
Programma per il riconoscimento di copie di programmi in linguaggio C
Resumo:
I complessi intrusivi alcalini, e i loro prodotti di alterazione, costituiscono una delle principali risorse di materie prime ad alto valore economico. Il magmatismo alcalino è di solito associato a fenomeni di rifting continentale che può essere legato o ad un’incipiente divergenza di placche litosferiche (Rift dell’Africa Orientale) o ad eventi distensivi post-collisionali. La caratterizzazione petrografica, geochimica e geocronologia di questi complessi sono prerequisiti essenziali per ogni progetto di prospezione mineraria. In Italia uno dei complessi alcalini più conosciuti è il Plutone Oligocenico della Valle del Cervo (Biella). La petrografia e la composizione degli elementi maggiori e in traccia dei diversi litotipi che lo compongono sono conosciuti nella letteratura geologica. Le datazioni radiometriche disponibili, tuttavia, sono limitate a dati Rb-Sr su separati di biotite e a più recenti dati U-Pb su zircone separato dal piccolo nucleo granitico del Plutone Oligocenico della Valle del Cervo. In entrambi i casi sono state ottenute età radiometriche di circa 30 Ma. Questo lavoro di tesi si basa sull’analisi degli isotopi U-Pb di zirconi separati dalla sienite e dal monzogranito a megacristalli di ortoclasio che costituiscono gran parte del Plutone Oligocenico della Valle del Cervo. Dopo una caratterizzazione petrografica e geochimica dei campioni scelti si è proceduto alla separazione degli zirconi tramite i metodi di routine che includono separazione gravimetrica, magnetica e liquidi pesanti. I rapporti isotopici U-Pb degli zirconi sono stati determinati presso l’Istituto di Geoscienze e Georisorse, Unità di Pavia, usando la tecnica di spettrometria di massa accoppiata ad una microsonda ad ablazione laser (LA ICP-MS). Le età U-Pb medie determinate per la sienite (33 Ma) e per il monzogranito a megacristalli di ortoclasio (29 Ma) sono da considerarsi età magmatiche relative alla cristallizzazione dei fusi che diedero origine a queste rocce.
Resumo:
Il fine ultimo di questo lavoro è di analizzare ed interpretare alcuni parametri morfometrici che riguardano bacini in roccia e canali di colate detritiche nelle Dolomiti, estrapolati tramite l’analisi di un DEM derivato da rilievo LiDAR. La procedura, implementata in ambiente GIS, è basata sull’analisi di mappe raster morfometriche derivate dalla rappresentazione digitale del terreno. L’elevata risoluzione di questi modelli digitali del terreno (1m) ha permesso uno studio approfondito della morfologia delle colate detritiche nell’area alpina. L’area di studio, nel comune di Cortina D’Ampezzo, è caratterizzata da frequenti eventi di colata detritica a causa della particolare e caratteristica morfologia dolomitica che si sviluppa in altezza con imponenti testate rocciose ed alla loro base con conoidi detritici. I bacini di roccia sono di piccole dimensioni, mentre la lunghezza dei canaloni può variare in base alla pendenza e alla litologia del luogo. In questo tipo di ambiente la causa principale di innesco di tali fenomeni sono i temporali ad elevata intensità i quali trasformano il materiale di deposito in un fluido che scende, grazie alla pendenza, con velocità elevate attraverso i canali. Raggiunte pendenze basse il fluido si arresta e il materiale viene depositato. In questo studio le zone d’innesco di colata detritica sono state indagate con metodologie quali la fotointerpretazione confrontata con il DEM e la modellazione spazialmente distribuita, una procedura automatica volta ad identificare i possibili punti d’innesco e basata sulla relazione tra pendenza locale e area contribuente. Tramite i punti d’innesco individuati con fotointerpretazione sono stati estratti i relativi bacini di colata. In principio sono stati analizzati e interpretati i parametri morfologici e idrologici che caratterizzano i bacini in roccia e i loro rispettivi canali di colata tramite istogrammi di frequenza. Successivamente sono stati confrontati i parametri più significativi attraverso l’uso di grafici a dispersione. Nello studio è stata posta particolare attenzione soprattutto a quei bacini considerati attivi tramite la raccolta di fonti storiche, con l’obbiettivo di analizzare dettagliatamente i parametri morfometrici che risultano essere direttamente legati all’attività dei bacini.
Resumo:
Il documento tratta la famiglia di metodologie di allenamento e sfruttamento delle reti neurali ricorrenti nota sotto il nome di Reservoir Computing. Viene affrontata un'introduzione sul Machine Learning in generale per fornire tutti gli strumenti necessari a comprendere l'argomento. Successivamente, vengono dati dettagli implementativi ed analisi dei vantaggi e punti deboli dei vari approcci, il tutto con supporto di codice ed immagini esplicative. Nel finale vengono tratte conclusioni sugli approcci, su quanto migliorabile e sulle applicazioni pratiche.
Resumo:
Dalla raffigurazione artistica fino alla modellazione digitale, passando per il disegno tecnico, la rappresentazione del progetto d’architettura ha conosciuto nel tempo evoluzioni significative che solo di recente hanno raggiunto l’apice nell’utilizzo di modelli cognitivi in grado di collezionare ed organizzare il patrimonio di informazioni che gravitano attorno all’intero processo edilizio. L’impiego sempre più diffuso dello strumento informatico, insieme al coordinamento delle specializzazioni nelle molte discipline coinvolte nel progetto, ha favorito negli ultimi anni l’adozione del Building Information Modeling un processo che permette di rivoluzionare il mondo delle costruzioni, coprendo molteplici aspetti del ciclo di vita per un manufatto edilizio. Questa Tesi intende presentare in maniera specifica le tappe che hanno consentito il formarsi del BIM. La migliore capacità di gestione, un linguaggio comune tra i progettisti, un’ottimizzazione di risorse e costi, unito ad un controllo convincente ed accurato delle fasi di lavoro, sono alcune delle potenzialità non ancora completamente espresse dal Building Information Modeling che è destinato a divenire una consapevolezza strategica nel bagaglio culturale del professionista contemporaneo.
Resumo:
Il Digital Marketing si occupa di tutto quello che possiamo fare, grazie ad Internet, per far crescere il business aziendale. Le tecnologie informatiche negli ultimi anni stanno producendo degli effetti pervasivi sulle infrastrutture delle imprese, sui prodotti, sui mercati e sui consumatori, con una rilevanza tale all'interno di un periodo di tempo relativamente limitato che non è possibile riscontrare in nessuna epoca passata. Coinvolgono le relazioni tra imprese, i mercati dei consumatori, le relazioni tra gli stessi consumatori, le singole componenti del marketing mix (prodotto, prezzo, comunicazione, distribuzione) e le loro modalità di interazione e di gestione all'interno della strategia di marketing dell'impresa. L'evoluzione del mondo digitale ha portato imprese e consumatori a dover affrontare un cambiamento radicale del paradigma di marketing e comunicazione che vede la relazione e l'interazione al centro di uno scambio di messaggi bilaterali altamente personalizzati e costanti. Il marketing non è un processo lineare ma circolare, in cui ascolto e comprensione dei bisogni e delle forze che agiscono sui mercati, progettazione dei prodotti o servizi in grado di rispondere alle nuove opportunità individuate, si integrano e cambiano continuamente. Quando si parla di Internet e commercio non si pensa solo all'e-commerce, ovvero all'acquisto e al pagamento del prodotto su Internet. La Rete ha acquisito un'influenza basilare in tutte le fasi precedenti all'acquisto infatti sul Web si attuano attività di ricerca e raccolta di informazioni, selezione, comparazione e perfezionamento che precedono la decisione d'acquisto e che specialmente per i beni durevoli e dall'alto valore monetario rappresentano un momento cruciale del processo d'acquisto. Questo fenomeno ha condizionato uno scenario di mercato in cui si sono abbassate le barriere di accesso all'informazione, si sono ridotti i tempi di relazione tra le persone e tra le persone e l'azienda e in alcuni settori sono crollare le barriere all'ingresso permettendo, attraverso la creazione di attività online di raggiungere e instaurare una relazione diretta. Questo elaborato si propone come un'analisi del digital marketing. Suddiviso in sei capitoli vuole dare una soddisfacente panoramica di questo nuovo marketing.
Resumo:
L’elevato consumo e il limitato tasso di rimozione dei farmaci favoriscono l’entrata di questi composti, biologicamente attivi, nell’ambiente acquatico. Essendo continuamente aggiunti, più velocemente di quanto si degradino, tali sostanze diventano pseudo-persistenti nell’ambiente, e gli organismi acquatici possono risultarne esposti a lungo termine. Per limitare gli effetti avversi di ambienti inquinanti, gli organismi più resistenti hanno sviluppato vari meccanismi di protezione cellulare, fra cui il sistema denominato Multixenobiotic resistance (MXR). Tale meccanismo agisce da sistema di detossificazione attraverso l’azione di specifici trasportatori transmembrana quali la P-glicoproteina (Pgp) e la Multidrug Resistance-associated Protein (MRP). Questi, codificati rispettivamente dai prodotti genici ABCB e ABCC, favorendo l’efflusso attivo di composti tossici, prevengono il loro accumulo cellulare e, dunque, i loro potenziali effetti dannosi. Tuttavia, alcune sostanze possono influenzare questo delicato meccanismo, esponendo gli organismi acquatici agli effetti tossici degli inquinanti. In questo lavoro di Tesi è stato condotto uno studio sperimentale in vitro volto a determinare i possibili effetti dell’antidepressivo fluoxetina (FX), dell’antiepilettico carbamazepina (CBZ) e del β-bloccante propranololo (PROP) sul meccanismo MXR, in emociti di Mytilus galloprovincialis. In particolare si è valutata l’azione di questi farmaci sulla funzionalità dei trasportatori e/o sulla modulazione trascrizionale. I risultati ottenuti hanno dimostrato l’importante effetto del PROP, della CBZ e della FX sul sistema MXR. In particolare, il PROP e la CBZ alterano tale sistema, agendo, principalmente, sui livelli di espressione del prodotto genico ABCB, nonostante influenzino anche i livelli di ABCC. La FX, invece, non porta ad alterazioni dell’attività MXR totale, sebbene induca variazioni sui livelli di espressione di ABCB. In conclusione, le analisi dei profili trascrizionali dimostrano che la proteina predominante nell’efflusso di tali contaminanti negli emociti di M. galloprovincialis è la P-glicoproteina e che le variazioni dell’attività MXR osservate in questa Tesi sono il risultato combinato dell’azione dei farmaci analizzati come modulatori trascrizionali e come substrati da parte dei trasportatori MXR.
Resumo:
Il presente lavoro di tesi è stato svolto a seguito delle indagini geognostiche previste per un progetto ingegneristico volto alla riqualificazione con caratteristiche autostradali della SP46 Rho-Monza e del preesistente sistema autostradale A8/A52, la cui area interessata dai lavori è ubicata nella parte Nord del comune di Milano. Lo studio è stato finalizzato alla valutazione, attraverso metodologie e tecnologie specifiche, delle caratteristiche idrodinamiche delle acque sotterranee presenti nella zona oggetto dei lavori. A seguito di misure sul livello piezometrico della falda, compiute dopo la realizzazione di 8 piezometri, è stata realizzata (con l’ausilio del software Surfer 8.0® – Golden Software Inc.) una mappa relativa all’andamento delle isopieze e dei gradienti di flusso, attraverso interpolazione spaziale con metodo Kriging delle misure. La ricostruzione dell’assetto della falda così ottenuto ha permesso di fornire utili indicazioni riguardo le successive scelte progettuali.
Resumo:
Il presente lavoro di tesi è stato svolto presso il servizio di Fisica Sanitaria del Policlinico Sant'Orsola-Malpighi di Bologna. Lo studio si è concentrato sul confronto tra le tecniche di ricostruzione standard (Filtered Back Projection, FBP) e quelle iterative in Tomografia Computerizzata. Il lavoro è stato diviso in due parti: nella prima è stata analizzata la qualità delle immagini acquisite con una CT multislice (iCT 128, sistema Philips) utilizzando sia l'algoritmo FBP sia quello iterativo (nel nostro caso iDose4). Per valutare la qualità delle immagini sono stati analizzati i seguenti parametri: il Noise Power Spectrum (NPS), la Modulation Transfer Function (MTF) e il rapporto contrasto-rumore (CNR). Le prime due grandezze sono state studiate effettuando misure su un fantoccio fornito dalla ditta costruttrice, che simulava la parte body e la parte head, con due cilindri di 32 e 20 cm rispettivamente. Le misure confermano la riduzione del rumore ma in maniera differente per i diversi filtri di convoluzione utilizzati. Lo studio dell'MTF invece ha rivelato che l'utilizzo delle tecniche standard e iterative non cambia la risoluzione spaziale; infatti gli andamenti ottenuti sono perfettamente identici (a parte le differenze intrinseche nei filtri di convoluzione), a differenza di quanto dichiarato dalla ditta. Per l'analisi del CNR sono stati utilizzati due fantocci; il primo, chiamato Catphan 600 è il fantoccio utilizzato per caratterizzare i sistemi CT. Il secondo, chiamato Cirs 061 ha al suo interno degli inserti che simulano la presenza di lesioni con densità tipiche del distretto addominale. Lo studio effettuato ha evidenziato che, per entrambi i fantocci, il rapporto contrasto-rumore aumenta se si utilizza la tecnica di ricostruzione iterativa. La seconda parte del lavoro di tesi è stata quella di effettuare una valutazione della riduzione della dose prendendo in considerazione diversi protocolli utilizzati nella pratica clinica, si sono analizzati un alto numero di esami e si sono calcolati i valori medi di CTDI e DLP su un campione di esame con FBP e con iDose4. I risultati mostrano che i valori ricavati con l'utilizzo dell'algoritmo iterativo sono al di sotto dei valori DLR nazionali di riferimento e di quelli che non usano i sistemi iterativi.