810 resultados para Struttura finanziaria
Resumo:
Le malattie neurodegenerative sono caratterizzate da aggregazione proteica, dipendente dalla perdita della usuale struttura fisiologica funzionale delle proteine coinvolte, a favore di conformazioni tossiche (patologiche). Il modello corrente descrive questi cambiamenti conformazionali come eventi rari e ritiene che non esista una sola conformazione patogena, ma che tali possibili conformazioni siano piuttosto eterogenee. La caratterizzazione di queste strutture è, di conseguenza, difficile con le tradizionali tecniche in bulk che permettono di studiare solo la conformazione media e non rendono possibile il riconoscimento delle caratteristiche dei conformeri individuali. Lo sviluppo delle tecniche di singola molecola ha permesso di studiare in modo approfondito le conformazioni possibili. In questo lavoro la spettroscopia di forza di singola molecola basata sull'AFM viene applicata a PrP (proteina responsabile delle encefalopatie spongiformi trasmissibili). Si studiano gli equilibri conformazionali del monomero e quelli di costrutti oligomerici, allo scopo di caratterizzare gli step iniziali dei processi aggregativi. Nel corso di questo lavoro di tesi è stato, in particolare, sviluppato un sistema di analisi dati, al fine di studiare in modo quantitativo le distribuzioni di eventi ottenute. Grazie a tale strumento è stato possibile riconoscere i segnali di unfolding della conformazione nativa del monomero e notare come essa sia presente anche in costrutti oligomerici, ad indicare come questo ripiegamento sia stabile anche in presenza di più monomeri ravvicinati. Si è osservato l'effetto del pH sulla stabilità di tale struttura, notando come pH acidi destabilizzino il ripiegamento nativo. Inoltre si è studiato il ruolo dell'orientazione dei monomeri nella formazione di strutture dimeriche. Monomeri e oligomeri di PrP sono stati descritti come proteine parzialmente strutturate il cui panorama energetico contiene molti minimi locali, dando origine a parecchie conformazioni transienti.
Resumo:
Il lavoro di tesi si inquadra nel progetto nazionale di ricerca promosso dal Dipartimento della Protezione Civile (DPC) e dall’Istituto di Geofisica e Vulcanologia (INGV), denominato S2-2014/DPC-INGV Constraining observations into seismic hazard. Esso prevede la caratterizzazione geologica e geofisica di 77 stazioni della rete accelerometrica nazionale (RAN) al fine di correggere i dati osservati e le relazioni (leggi di attenuazione dell’accelerazione ecc.) che da essi derivano. Fino ad ora le stazioni sismiche erano state assunte come ubicate su roccia affiorante o su litotipi di altro tipo evinti da carta geologica, senza alcun tipo di verifica diretta. Le 77 stazioni sono state scelte tra quelle che presentavano una storia di operatività di almeno 25 anni. In questo lavoro è stata eseguita la caratterizzazione geologica e geofisica di 5 stazioni, collocate in Emilia-Romagna. Oltre alla caratterizzazione del sottosuolo, abbiamo prestato attenzione alla caratterizzazione dinamica delle strutture che ospitano le stazioni sismiche e alla ricerca di eventuali interazioni tra queste e i sensori accelerometrici, trasmesse attraverso il sottosuolo. Il rilevamento geologico e le prove geofisiche, sismica a stazione singola e array, eseguite nei siti hanno permesso di definire la categoria sismica di sottosuolo secondo l’approccio semplificato proposto dalle NTC (2008). Dallo studio è emerso che il segnale registrato dagli strumenti accelerometrici in quasi tutte le stazioni investigate risente in qualche modo della struttura in cui la stazione sismica è racchiusa (cabina ENEL in muratura, con sviluppo a torre di circa 7-8 m di altezza). Ne segue che i dati registrati da queste stazioni sismiche sopra 3-5 Hz (a seconda della specifica struttura) non sono immediatamente utilizzabili o interpretabili come legati all’effetto del solo sottosuolo o del solo segnale sismico. In essi si accoppia, e spesso come effetto del primo ordine, la vibrazione propria (nei modi fondamentale e superiori, flessionali e torsionali) della struttura.
Resumo:
Lo scoppio della crisi finanziaria globale del 2007 ha rappresentato un evento epocale che ha interessato una varietà di ambiti: l’economia, la finanza, il diritto, la sociologia e anche la comunicazione. Molti linguisti e ricercatori del settore terminologico si sono concentrati sulle conseguenze di questo capovolgimento nella comunicazione che ha accolto in misura crescente anglicismi finanziari provenienti dagli Stati Uniti. I documenti istituzionali, ma soprattutto la stampa generalista e finanziaria sono dovuti ricorrere per esigenze denotative agli anglicismi al fine di illustrare le cause di questo evento e proporre delle soluzioni adeguate per attenuarne gli effetti. Dopo la crisi, infatti, le autorità di vigilanza finanziaria europee hanno iniziato a mettere in campo una serie di riforme della regolamentazione finanziaria volte a prevenire la comparsa di nuove crisi sistemiche: lo stress testing costituisce uno degli strumenti che la vigilanza europea ha adottato allo scopo di valutare lo stato di salute dei bilanci degli istituti di credito e per vagliarne la solidità e la resistenza a crisi simili a quella esplosa nel 2007. Il nostro elaborato si propone di osservare in ottica diacronica il trattamento degli anglicismi finanziari del dominio dello stress testing nella comunicazione istituzionale della Banque de France e della Banca d’Italia e nella stampa economico-finanziaria francese e italiana. Per la realizzazione di tale indagine abbiamo adottato un approccio diacronico teso all’osservazione del trattamento dell’anglicismo stress test in un arco temporale che dai primi anni Duemila arriva fino ad oggi. Ai fini dell’indagine abbiamo costruito due corpora comparabili di testi istituzionali tratti dal sito Web della Banque de France e da quello della Banca d’Italia, delimitando la ricerca al dominio dello stress testing. Abbiamo successivamente compilato due corpora comparabili con testi tratti da La Tribune e Milano Finanza per osservare il trattamento degli anglicismi finanziari in un genere testuale differente, benché specializzato. Abbiamo assunto il 2007, anno di inizio della crisi, come spartiacque, suddividendo i corpora in vari subcorpora e selezionando i testi da includervi in base alla data di pubblicazione. L’obiettivo che ci siamo prefissati è quello di osservare se nel dominio dello stress testing abbia avuto luogo un’evoluzione concettuale e se questa sia riscontrabile anche dal trattamento degli anglicismi finanziari, con un focus particolare sull’anglicismo stress test.
Resumo:
Il presente elaborato consiste in una proposta di traduzione dell’introduzione, opera dalla curatrice Saša Obuchova, al catalogo della mostra "Performans v Rossi: kartografija istorii" [La performance in Russia: una cartografia della sua storia], tenutasi al museo d’arte contemporanea Garaž di Mosca. L’elaborato consta di tre capitoli. Il primo, di carattere generale, descrive le caratteristiche del testo che si è scelto di tradurre, presenta brevemente l’autrice, la struttura del catalogo di cui tale testo fa parte e la mostra per la quale il catalogo è stato pubblicato, e dà infine qualche cenno sulla storia del museo Garaž. Il secondo, di carattere artistico, propone una riflessione sul significato della parola “performance” e una breve sintesi della storia della performance-art in Russia. Infine, nel terzo, si troverà la traduzione del testo "Ot slova k dejstvii" [Dalla parola all’azione] della curatrice della mostra Saša Obuchova, preceduta da un’introduzione al testo e alla traduzione.
Resumo:
La congestione del traffico è un fenomeno molto familiare, con il quale si ha a che fare nelle più svariate occasioni. Dal punto di vista fisico, il flusso del traffico rappresenta un sistema di particelle interagenti (i ve- icoli) in condizione di non equilibrio. L’effetto complessivo di un sistema composto da molte particelle interagenti è la creazione di una instabil- ità, osservata empiricamente, nello stato di free flow (scorrimento libero), causata dall’aumentare delle fluttuazioni. In questi casi di parla di phan- tom traffic jam, ovvero una congestione che ha origine senza cause appar- enti, come incidenti o lavori in corso. Sarà dimostrato come la condizione di stop & go si verifichi spontaneamente se la densità media dei veicoli eccede un certo valore critico. L’importanza di poter predire una congestione stradale non è un problema puramente matematico, ma ha risvolti socio-economici non indifferenti. Infatti, le caratteristiche della mobilità e dei sistemi di trasporto sono strettamente legate alla struttura della comunità e alla qualità della vita. Con il seguente studio si cercherà di trovare un osservabile facilmente calcolabile, che potrebbe essere un predittore della formazione di uno stato congestionato con un intervallo di tempo sufficientemente adeguato. A tal fine sono state prese in considerazione misure relative alle condizioni del traffico su strade provinciali dell’Emilia-Romagna, tramite un sistema MTS composto da 3509 spire che registra i passaggi delle macchine; in seguito, per poter avere una comprensione maggiore dei fenomeni che si manifestano durante la transizione a stato congestionato, si è provveduto a creare un modello matematico utilizzato per le simulazioni al computer. I risultati ottenuti dalle simulazioni, poi, sono stati utilizzati per trovare l’osservabile cercato nei dati pervenuti dalle strade campione.
Resumo:
Questa tesi tratta la gestione dei formati digitali dei testi, parziale argomento del progetto Biblio dell'università di Bologna. L'analisi proposta in questa tesi prevede la proposta di un'architettura che sfrutta in parte tecnologie già esistenti come linguaggi di markup, gestione di frammenti di testo con XPointer e epubcfi, tools per NLP, TEI, DocBook. Questa architettura ha il compito di modificare i formati digitali dei documenti in modo tale che la struttura sia indipendente dall'impaginazione. Ciò avviene attraverso l'introduzione delle unità informative, ossia nuovi elementi nella struttura del testo. Le unità informative sono di vari tipi, quelle più rilevanti ed innovative riguardano parti di testo e periodi; esse, infatti, permettono di identificare un preciso periodo dall'opera senza che esso dipenda dal tipo di impaginazione. Per ottenere questo risultato sono state sollevate tre problematiche principali: la gestione delle opere già esistenti, la gestione delle traduzioni, la gestione di opere inedite; esse vengono rispettivamente risolte nelle proposte dei postprocessor, del translationSystem e dell'authorSystem. Tutte e tre si basano sulla produzione di un'enumerazione delle unità informative, con una particolare attenzione per i periodi. Per riuscire a reperire i periodi si sfruttano le tecnologie di riconoscimento NLP. Il translationSystem e l'authorSystem presentano inoltre funzioni per la gestione della numerazione. Inoltre si prende in considerazione un repository e un sistema di autenticazione certificato per combattere furti d'identità, plagi e simili. Comprende accenni al recupero di unità informative sulla base di FRBR e una proposta per un sistema multiautore.
Resumo:
Gli obbiettivi di questo lavoro di tesi risultano i seguenti: 1) Progettare e caratterizzare una tipologia di bundle bioriassorbibile attraverso la tecnica dell’elettrofilatura, composto da una miscela di acido poli-(L)lattico (PLLA) e collagene, che cerchi di mimare le proprietà meccaniche dei fascicoli di collagene tendineo umano ed equino; 2) Individuare una metodologia di assemblaggio multiscala dei bundle che permetta la creazione di uno scaffold in grado di mimare la struttura gerarchica di un tendine completo; 3) Applicare la filosofia traslazionale alla progettazione dello scaffold al fine di poter applicare tale tecnologia sia nell’ambito della medicina umana che in quella veterinaria, lavorando nel senso della medicina unica.
Resumo:
L'obiettivo di questa tesi è quello di fornire le informazioni di base che, un aspirante programmatore Android, deve sapere per scrivere applicazioni che facciano uso dei sensori presenti nei moderni telefoni cellulari (accelerometro, giroscopio, sensore di prossimità, ecc...). La tesi si apre citando qualche aneddoto storico sulla nascita del sistema operativo più famoso al mondo ed elencando tutte le releases ufficiali e le novità che hanno portato dalla 1.0 all'attuale 5.1.1 Lollipop. Verranno analizzate le componenti fondamentali per costruire un applicazione Android: Activities, Services, Content Providers e Broadcast Receivers. Verrà introdotto e approfondito il concetto di sensore, sia punto di vista fisico sia dal punto di vista informatico/logico, evidenziando le tre dimensioni più importanti ovvero struttura, interazione e comportamento. Si analizzeranno tutte i tipi di errori e problematiche reali che potrebbero influire negativamente sui valori delle misurazioni (disturbi, rumori, ecc...) e si propone la moderna soluzione del Sensor Fusion come caso particolare di studio, prendendo spunto dal lavoro di grandi aziende come la Invensense e la Kionix Inc. Infine, si conclude l'elaborato passando dalle parole al codice: verranno affrontate le fasi di analisi e d'implementazione di un'applicazione esemplificativa capace di determinare l'orientamento del dispositivo nello spazio, sfruttando diverse tecniche Sensor Fusion.
Resumo:
L'obiettivo di questo studio è quello di mettere in luce i diversi fattori che, negli ultimi anni, hanno portato ad un impiego sempre più diffuso della PET in ambito clinico, in Italia e all'estero. La recente integrazione delle informazioni funzionali della PET con le informazioni morfologiche di una TC, mediante tomografi ibridi PET/CT, ha radicalmente cambiato l’approccio alla stadiazione e al follow-up dei pazienti, rendendo questa tecnica una delle massime espressioni della moderna diagnostica per immagini, al giorno d'oggi utilizzata principalmente in campo oncologico. Nei primi capitoli, dopo un breve richiamo alla struttura della materia, ai concetti di radiazione e decadimento radioattivo, si analizzano le apparecchiature e i principi di funzionamento della tecnica PET/TC. Successivamente, nel capitolo 4 sono illustrati i diversi tipi di radiofarmaci e le loro applicazioni, con un’attenzione particolare al PSMA, impiegato principalmente nei tumori alla prostata, reni, tiroide e mammella. Proprio alla cura e alla diagnosi del tumore alla prostata è dedicato il capitolo 5, con un breve confronto tra l’ormai accreditata PET/CT con 18F-Colina e l’innovativa Ga-PSMA PET/CT. Nel capitolo 6 si prendono in considerazione le procedure e i protocolli da seguire durante un esame PET/TC, le misure di preparazione, prevenzione e le precauzioni che pazienti e personale sanitario devono osservare. Nel capitolo 7, infine, un breve cenno alle ultime innovazioni tecnologiche: imaging ibrido PET/MRI e fotomoltiplicatori SiPM. Le fonti bibliografiche citate constano principalmente di articoli in lingua inglese pubblicati sul portale PubMed. Parte della documentazione relativa alla progettazione dell'apparecchiatura PET/CT e al suo utilizzo è, invece, stata fornita da personale dell'arcispedale Santa Maria Nuova di Reggio Emilia.
Uso di 3d slicer in ambito di ricerca clinica: Una revisione critica delle esperienze di riferimento
Resumo:
Negli ultimi 20 anni il progresso tecnologico ha segnato un profondo cambiamento in svariati ambiti tra i quali quello della Sanità in cui hanno preso vita apparecchiature diagnostiche, cosiddette “digitali native”, come la Tomografia Computerizzata (TC), la Tomografia ad Emissione di Positroni (PET), la Risonanza Magnetica Nucleare (RMN), l’Ecografia. A differenza delle diagnostiche tradizionali, come ad esempio la Radiologia convenzionale, che forniscono come risultato di un esame un’immagine bidimensionale ricavata dalla semplice proiezione di una struttura anatomica indagata, questi nuovi sistemi sono in grado di generare scansioni tomografiche. Disporre di immagini digitali contenenti dati tridimensionali rappresenta un enorme passo in avanti per l’indagine diagnostica, ma per poterne estrapolare e sfruttare i preziosi contenuti informativi occorrono i giusti strumenti che, data la natura delle acquisizioni, vanno ricercati nel mondo dell’Informatica. A tal proposito il seguente elaborato si propone di presentare un software package per la visualizzazione, l’analisi e l’elaborazione di medical images chiamato 3D Slicer che rappresenta un potente strumento di cui potersi avvalere in differenti contesti medici. Nel primo capitolo verrà proposta un’introduzione al programma; Seguirà il secondo capitolo con una trattazione più tecnica in cui verranno approfondite alcune funzionalità basilari del software e altre più specifiche; Infine nel terzo capitolo verrà preso in esame un intervento di endoprotesica vascolare e come grazie al supporto di innovativi sistemi di navigazione chirurgica sia possibile avvalersi di 3D Slicer anche in ambiente intraoperatorio
Resumo:
Questo lavoro prende in esame lo schema di Hilbert di punti di C^2, il quale viene descritto assieme ad alcune sue proprietà, ad esempio la sua struttura hyper-kahleriana. Lo scopo della tesi è lo studio del polinomio di Poincaré di tale schema di Hilbert: ciò che si ottiene è una espressione del tipo serie di potenze, la quale è un caso particolare di una formula molto più generale, nota con il nome di formula di Goettsche.
Resumo:
I materiali a base di carbone vengono utilizzati in catalisi come supporti per fasi attive, ma anche direttamente come catalizzatori essi stessi, grazie soprattutto alla versatilità delle loro proprietà di massa e superficiali. L’attività catalitica dei carboni è influenzata soprattutto dalla natura, dalla concentrazione e dall’accessibilità dei siti attivi tra cui i più comuni sono: gruppi funzionali superficiali, difetti, ed eteroatomi inseriti nella struttura. Per ridurre i problemi diffusionali legati alla microporosità dei carboni attivi sono in corso numerosi studi sulla sintesi di carboni mesoporosi, i quali possono fornire benefici unici come alta area superficiale ed elevato volume dei pori, uniti a buone proprietà chimiche e stabilità meccanica. Nel corso di questa tesi, sono state svolte diverse attività finalizzate principalmente alla preparazione e alla caratterizzazione di carboni mesoporosi da utilizzare in ambito catalitico. La sintesi di carboni porosi è stata eseguita con la metodologia soft-templating, un metodo basato sulla replica di un agente templante polimerico che si organizza in micelle attorno alle quali avviene la reticolazione di un precursore polimerico termoindurente. Precursore e templante vengono pirolizzati ad elevate temperature per rimuovere in un primo momento l’agente templante e successivamente carbonizzare il precursore. Sono state scelte due metodologie di sintesi riportate in letteratura con lo scopo di sintetizzare due tipologie di carboni. La sintesi Mayes è stata utilizzata per sintetizzare carboni mesoporosi classici, mentre la sintesi Hao è stata utilizzata per ottenere carboni porosi contenenti azoto. Le due sintesi sono state ottimizzate variando diversi parametri, tra cui il tempo di reticolazione (curing) e la temperatura di pirolisi. Sui diversi carboni ottenuti sono stati effettuati alcuni trattamenti superficiali di ossidazione al fine di modificarne la funzionalità. In particolare si sono utilizzati agenti ossidanti come HNO3, H2O2 e N2O.
Resumo:
La struttura di gruppo è una delle strutture algebriche più semplici e fondamentali della matematica. Un gruppo si può descrivere in vari modi. Noi abbiamo illustrato la presentazione tramite generatori e relazioni, che consiste sostanzialmente nell'elencare le "regole di calcolo" che valgono nel gruppo considerato, oltre a quelle che derivano dagli assiomi di gruppo. L'idea principale di questa tesi è quella di mostrare come un argomento così tecnico e specifico possa essere reso "elementare" e anche divertente. Siamo partiti dalla costruzione di un gioco, inventando regole da aggiungere di volta in volta. Abbiamo poi tentato di spiegare il medesimo concetto da un punto di vista teorico, tramite la teoria dei gruppi liberi. Si tratta di gruppi che hanno un insieme di generatori soddisfacenti unicamente alle relazioni che sono conseguenza degli assiomi di gruppo.Ogni gruppo è un quoziente di un gruppo libero su un appropriato insieme di generatori per un sottogruppo normale, generato dalle relazioni. Infine si è illustrato il problema della parola formulato da Max Dhen nel 1911, e si è visto come tale problema è risolubile per i gruppi liberi.
Resumo:
La tesi si propone di investigare, mediante un approccio puramente quantitativo, il contenuto informativo e la morfologia della lingua del manoscritto di Voynich (VMS), noto per essere redatto in un alfabeto sconosciuto e tuttora non decodificato. Per prima cosa, a partire dal concetto di entropia, sviluppato nel contesto della teoria della informazione, si costruisce una misura del contenuto informativo di un testo (misura di Montemurro-Zanette); quindi, si presentano diversi esperimenti in cui viene misurata l'informazione di testi sottoposti a trasformazioni linguistiche di vario genere(lemmatizzazione, traduzione, eccetera). In particolare, l'applicazione al VMS di questa misura unita ad altre tecniche, ci permette di indagare la struttura tematica del manoscritto e le relazioni tra i suoi contenuti, verificando che esiste una continuità semantica tra pagine consecutive appartenenti a una stessa sezione. La grande quantità di hapax nel manoscritto ci porta poi a considerazioni di tipo morfologico: suggerisce infatti che la lingua del manoscritto sia particolarmente flessiva. La ricerca, in particolare, di sequenze di hapax consecutivi, ci porta a identificare -verosimilmente- alcuni nomi propri. Proprio per approfondire la morfologia della lingua si costruisce infine un grafo linguistico basato sostanzialmente sulla distanza di Hamming; confrontando la topologia di questi grafi per alcune lingue e per la lingua del VMS si osserva che quest'ultimo si distingue per maggiore densità e connessione. Traendo le conclusioni, i forti indizi a favore della presenza di un contenuto informativo nel testo confermano l'ipotesi che questo sia scritto in una vera lingua. Tuttavia, data la notevole semplicità delle regole di costruzione morfologiche, a nostro parere non sembra assimilabile ad una lingua naturale conosciuta, ma piuttosto ad una artificiale, creata appositamente per questo testo.
Resumo:
Si inizia generalizzando la teoria dei gruppi a categorie qualsiasi, quindi senza necessariamente un insieme sostegno, studiando anche i cogruppi, ovvero gli oggetti duali dei gruppi, e caratterizzando in termini categoriali tali strutture. Vengono poi studiati oggetti topologici con la struttura di gruppo generalizzato vista inizialmente, compatibile con la struttura topologica. L'utilità degli H-gruppi e dei co-H-gruppi è specialmente in topologia algebrica, dove la struttura di questi oggetti fornisce molte informazioni sul loro comportamento, in termini di gruppi di omotopia e di più generici gruppi di mappe fra loro e altri spazi. Vengono poi dati esempi di questi oggetti, e si studia come i co-H-gruppi, in particolare, permettono di definire i gruppi di omotopia e di dimostrare i risultati fondamentali della teoria dell'omotopia.