505 resultados para Varietà, curve algebriche, curve ellittiche, gruppo dei punti a coordinate razionali, teorema di Mordell-Weil.
Resumo:
Questa tesi ha come oggetto di studio i problemi riscontrati nelle trascrizioni di testi orali in lingua inglese prodotte da 39 studenti della laurea magistrale in Interpretazione. Nel Capitolo 1 viene presentato l’ascolto, che viene definito prima da un punto di vista storico, poi analizzato come processo composto da quattro fasi, come sostiene Michael Rost (2011). Il capitolo si conclude con l’ascolto nell’ambito dell’interpretazione. Nel Capitolo 2 viene analizzato in maniera contrastiva l’apprendimento dell’ascolto nella prima e nella seconda lingua. I primi due capitoli forniscono le basi per comprendere il caso di studio. Il Capitolo 3 concerne la metodologia dello studio. Vengono presentati il metodo di analisi delle trascrizioni, la categorizzazione dei problemi riscontrati e il processo di creazione del sistema di analisi utilizzato. Nel Capitolo 4 vengono presentati i dati ottenuti seguendo il metodo esposto nel Capitolo 3. Si presentano i problemi riscontrati, che vengono suddivisi in categorie in base a ciò che può averli causati. Il Capitolo 5 è dedicato alle conclusioni. Qui vengono suggerite possibili strategie mirate ad aiutare gli studenti di Interpretazione a migliorare le proprie capacità di ascolto in lingua inglese. Esta tesis quiere analizar los problemas encontrados en transcripciones de textos orales en inglés hechas por 39 estudiantes del máster en Interpretación. En el Capítulo 1 se presenta la escucha, que se define primero desde una perspectiva histórica, y luego como un proceso formado por cuatro fases, como argumenta Michael Rost (2011). El capítulo se cierra con la escucha en el ámbito de la interpretación. En el Capítulo 2 se analizan de forma contrastiva el aprendizaje de la escucha en la primera y segunda lengua. Los primeros dos capítulos constituyen la base para comprender el caso de estudio. El Capítulo 3 atañe a la metodología del estudio. Se presentan el método de análisis de las transcripciones, la categorización de los problemas encontrados y el proceso de creación del sistema de análisis que se ha empleado. En el Capítulo 4 se proporcionan los datos obtenidos gracias al método presentado en el Capítulo 3. Se presentan los problemas encontrados, que han sido divididos en categorías según qué puede haberlos ocasionado. El Capítulo 5 está dedicado a las conclusiones. Aquí se sugieren posibles estrategias cuyo objetivo es ayudar a los estudiantes de Interpretación a mejorar sus capacidades de escucha en inglés.
Resumo:
Negli ultimi 20 anni lo studio dei materiali organici dalle proprietà conduttive si è ampliato significativamente in un range di applicazioni molto vasto, che va dall'assemblaggio e costruzione di sistemi microelettronici avanzati ad applicazioni nel campo della bioelettronica e dell'ingegneria biomedica. Il presente lavoro rappresenta un punto d'incontro tra la fisica dei materiali e la ricerca in ambito biomedico e verte sullo studio delle particolari proprietà del poli(3,4-etilenediossitiofene) drogato con poli(stirene sulfonato), o PEDOT:PSS, utilizzato nella preparazione di substrati per colture cellulari. Nel primo capitolo, di natura descrittiva, viene presentata una panoramica sui polimeri conduttivi e sulle loro caratteristiche principali con particolare approfondimento sul PEDOT:PSS e sulle sue applicazioni in ambito di ricerca. Il secondo capitolo contiene una descrizione approfondita della strumentazione e delle procedure utilizzati per la caratterizzazione dei campioni: sommariamente, questi comprendono misure di resistenza superficiale, di angolo di contatto e analisi morfologiche tramite AFM. Nel terzo e ultimo capitolo vengono esposte le tecniche di preparazione dei campioni e vengono mostrati e discussi i risultati delle misure eseguite sui campioni preparati.
Resumo:
Questo progetto ha confrontato gli effetti indotti da diversi tipi di radiazioni, diversa intensità delle dosi, diverso rateo di dose su sistemi cellulari differenti. In particolare sono stati seguiti due studi differenti, finalizzati all’indagine degli effetti e dei meccanismi indotti da trattamenti radioterapici su cellule in coltura. Nel primo studio -EXCALIBUR- sono stati investigati i meccanismi di induzione e trasmissione del danno a basse dosi di radiazioni, in funzione della qualità della radiazione (raggi gamma e protoni) e della dose. Cellule di glioblastoma umano (T98G) sono state irraggiate con raggi gamma e protoni a due diverse dosi (0,25 Gy e 2 Gy); in questo studio è stata valutata e analizzata la variazione di espressione genica rilevata utilizzando la tecnologia dei microarray. Per mezzo dell’analisi statistica, con due software diversi, si è osservato come nelle cellule irraggiate si attivino i geni legati alla senescenza cellulare; questo risultato è significativo, visto che potrebbe rappresentare una prospettiva terapeutica interessante per molte neoplasie. Il secondo studio –Plasma Focus- ha lo scopo di ampliare le applicazioni nel settore medicale di una sorgente radiante che produce raggi X ad altissimo rateo di dose (plasma focus). In questo studio, l’attenzione è stata posta sulla preparazione dei campioni biologici per l’irraggiamento. Cellule di adenocarcinoma mammario (MCF7) sono state coltivate in laboratorio e posizionate all’interno di appositi portacampioni pronte per essere irraggiate con raggi X ad alto e a basso rateo di dose. Per mezzo della microscopia ottica e della citometria a flusso in fluorescenza, si è osservato come un rateo di dose elevato provochi danni cellulari superiori. L’analisi quantitativa ha mostrato che, nelle cellule trattate con il plasma focus, il 18% risulti danneggiato rispetto al 7% delle cellule di controllo; con i raggi X convenzionali risulta danneggiato l'8% di cellule, rispetto al 3% delle cellule di controllo.
Resumo:
Una teoria di unificazione ha il notevole compito di fornire un modello in grado di unificare le forze fondamentali della natura in una sola. Storicamente uno dei primi tentativi è rappresentato dal modello di Kaluza, che propone una formulazione unificata di gravità ed elettromagnetismo. In 4 dimensioni il campo gravitazionale e il campo elettromagnetico sono entità nettamente separate. Tale dualismo può essere superato estendendo la teoria della Relatività Generale ad uno spaziotempo a 5 dimensioni. Se alle consuete 4 si aggiunge una quinta dimensione spaziale, allora si dimostra che la gravità e l’elettromagnetismo possono essere visti come la manifestazione di un unico campo di forza, che è interpretabile in termini della geometria dello spaziotempo a 5 dimensioni. Nonostante i suoi intrinseci limiti, il modello di Kaluza rappresenta comunque un punto di partenza per molte altre teorie di campo unificato più moderne e a più di 5 dimensioni. L'obiettivo è di sviluppare le linee fondamentali del modello di Kaluza. Preliminarmente si riportano i risultati principali dell'elettromagnetismo e della Relatività Generale, dato che il modello si formula a partire da questi. Si stabilisce la condizione di cilindro, secondo cui le quantità fisiche non subiscono variazioni nella quinta dimensione. Si ipotizza un ansatz per il tensore metrico 5D e si scrivono le equazioni di campo unitario e della geodetica, come estensioni a 5 dimensioni di quelle in 4. Si dimostra che il campo unitario in 4 dimensioni si separa nel campo scalare costante, nel campo elettromagnetico e nel campo gravitazionale. Le componenti quadridimensionali della geodetica 5D riconducono a quella 4D e alle leggi del moto 4D in presenza dei campi gravitazionale ed elettromagnetico. Inoltre si interpreta la carica elettrica come la quinta componente della velocità covariante 5D.
Resumo:
Il lavoro ha riguardato l’elaborazione di segnali EEG registrati durante compiti di apprendimento associativo. In particolare, durante tali compiti, i soggetti imparavano ad associare ad una certa immagine un evento neutro e ad una diversa immagine un evento avverso; la tempistica dell’evento associato a ciascuna immagine era segnalata dalla comparsa di una cornice colorata attorno all’immagine. Mentre l’evento associato a ciascuna immagine era certo, la tempistica dell’evento poteva variare da prova a prova pur verificandosi nella maggior parte dei trial (80%) dopo un tempo T0 dalla comparsa dell’immagine e, nel 20% dei trial, dopo un tempo T1 dalla comparsa dell’immagine, con T1 < T0. Ciò generava nei soggetti le condizioni di EXPECTED TIMING dell’evento (associata alla tempistica più frequente) e la condizione di UNEXPECTED TIMING dell’evento (associata alla tempistica meno frequente). Ciascuna delle due condizioni poteva riguardare l’evento neutro (privo di una particolare valenza per il soggetto) e l’evento avverso (con una valenza negativa per il soggetto). Nel presente lavoro è stata eseguita un’analisi approfondita dei segnali EEG, sia a livello di potenziali evocati sullo scalpo che a livello di segnali ricostruiti sulla corteccia. Lo scopo è quello di chiarire le possibili attivazioni corticali che generano i potenziali osservati sullo scalpo e, quindi, quali aree della corteccia sono maggiormente implicate nella detezione degli errori di predizione. In particolare, si è indagato se tali errori sono influenzati dalla valenza dell’evento inatteso (nel nostro caso avverso rispetto a neutro). La ricostruzione delle sorgenti è stata effettuata utilizzando l’algoritmo sLORETA. In base ai risultati ottenuti, la tempistica di arrivo della cornice ha effetto soltanto quando l’evento ha una valenza (negativa) per il soggetto e le ROI maggiormente coinvolte sono quelle del cingolo e quelle somato-sensoriali.
Resumo:
Un limite rilevante delle apparecchiature elettromedicali presenti in una comune sala operatoria/interventistica è rappresentato dal fatto che le informazioni clinico-strumentali che esse sono in grado di fornire vengono gestite localmente in maniera indipendente: ogni fabbricante di apparecchiatura medica, infatti, sviluppa standard proprietari per l’acquisizione, la presentazione e l’archiviazione dei dati. Ci si chiede se sia possibile una gestione globale, sincronizzata e personalizzata, delle informazioni clinico-strumentali acquisibili da diverse strumentazioni presenti nel medesimo contesto operatorio. La soluzione di SparkBio S.r.l. per colmare il gap esistente in materia di gestione di informazioni clinico-strumentali di sala è quella di concentrare le uscite video e le uscite analogiche dei vari dispositivi e visualizzarle contemporaneamente su di un unico monitor master. Il monitor master sarà suddiviso tramite una griglia in diversi settori ed ogni area predisposta per visualizzare il segnale video o analogico di un dispositivo presente in sala. Avendo a disposizione un’apparecchiatura con questa potenzialità, le applicazioni risultano innumerevoli: l’archiviazione di un unico file contenente la registrazione sincronizzata dei segnali delle varie sorgenti permette di documentare l’intera esecuzione della procedura al fine di una sua successiva visione e distribuzione: il confronto congiunto, fatto a posteriori, di parametri acquisiti da strumenti diversi rende possibile valutare particolari eventi; la condivisione con la comunità scientifica rende possibile la diffusione del sapere in materia di chirurgia. Inoltre la disponibilità di una collezione di dati concentrati in un’unica workstation apre la strada ad applicazioni nel campo della telemedicina: la condivisione a distanza delle varie sorgenti raccolte e sincronizzate via WEB, tramite l’integrazione di un software per videoconferenza, permette di realizzare supporto remoto, e-learning, telementoring e teleproctoring. L’obiettivo di questa tesi è analizzare il processo di sviluppo di questo nuovo dispositivo medico denominato “OneView”, per poi passare alla progettazione di scenari specifici applicabili a diverse procedure chirurgiche.
Resumo:
La gestione del traffico è una delle principali problematiche delle città moderne, e porta alla definizione di nuove sfide per quanto riguarda l’ottimizzazione del flusso veicolare. Il controllo semaforico è uno degli elementi fondamentali per ottimizzare la gestione del traffico. Attualmente la rilevazione del traffico viene effettuata tramite sensori, tra i quali vengono maggiormente utilizzate le spire magnetiche, la cui installazione e gestione implica costi elevati. In questo contesto, il progetto europeo COLOMBO si pone come obiettivo l’ideazione di nuovi sistemi di regolazione semaforica in grado di rilevare il traffico veicolare mediante sensori più economici da installare e mantenere, e capaci, sulla base di tali rilevazioni, di auto organizzarsi, traendo ispirazione dal campo dell’intelligenza artificiale noto come swarm intelligence. Alla base di questa auto organizzazione semaforica di COLOMBO vi sono due diversi livelli di politiche: macroscopico e microscopico. Nel primo caso le politiche macroscopiche, utilizzando il feromone come astrazione dell’attuale livello del traffico, scelgono la politica di gestione in base alla quantità di feromone presente nelle corsie di entrata e di uscita. Per quanto riguarda invece le politiche microscopiche, il loro compito è quello di deci- dere la durata dei periodi di rosso o verde modificando una sequenza di fasi, chiamata in COLOMBO catena. Le catene possono essere scelte dal sistema in base al valore corrente della soglia di desiderabilità e ad ogni catena corrisponde una soglia di desiderabilità. Lo scopo di questo elaborato è quello di suggerire metodi alternativi all’attuale conteggio di questa soglia di desiderabilità in scenari di bassa presenza di dispositivi per la rilevazione dei veicoli. Ogni algoritmo complesso ha bisogno di essere ottimizzato per migliorarne le performance. Anche in questo caso, gli algoritmi proposti hanno subito un processo di parameter tuning per ottimizzarne le prestazioni in scenari di bassa presenza di dispositivi per la rilevazione dei veicoli. Sulla base del lavoro di parameter tuning, infine, sono state eseguite delle simulazioni per valutare quale degli approcci suggeriti sia il migliore.
Resumo:
Nella tesi vengono introdotte le varietà differenziabili per poter trattare un problema di immergibilità di varietà differenziabili. Viene data una dimostrazione di un teorema di Whitney nel caso di varietà differenziabili compatte. Il teorema stabilisce che per una varietà compatta di dimensione n esiste un embedding nello spazio euclideo di dimensione 2n+1. Whitney stesso ha migliorato questo risultato, dimostrando che una varietà differenziabile può essere immersa tramite un embedding nello spazio euclideo di dimensione 2n. Nella tesi vengono dati alcuni esempi di questo miglioramento del teorema.
Resumo:
Installazione step by step al banco prova di un motore motociclistico, descrizione dei componenti presenti (banco prova, circuiti di raffreddamento, circuito di alimentazione e circuito elettrico) e analisi in prima battuta dei dati raccolti.
Resumo:
Analisi linguistica del parlato cinese/inglese/italiano nella descrizione di un'immagine. Sono stati intervistati 60 giovani delle tre nazionalità coinvolte. Si sono individuate le differenze tra le tecniche descrittive dei rispettivi parlanti e si è cercato di dedurne una spiegazione culturale.
Resumo:
Oggetto di questa tesi sono l'analisi del linguaggio utilizzato nella comunicazione turistica e delle difficoltà di traduzione che si presentano nei testi turistici. Sono state analizzate le principali caratteristiche del discorso turistico, sia dal punto di vista della tipologia testuale sia per quanto riguarda le peculiarità del lessico impiegato nei testi turistici. Si è trattato il tema della trasmissione dei riferimenti culturali, soprattutto dei nomi propri (che sono numerosi all'interno dei testi turistici) e delle strategie di traduzione che permettono di trovare ottime soluzioni per conservare il significato del termine d'origine nella lingua d'arrivo e di spiegare al destinatario del testo il contenuto non sempre chiaro del nome proprio (e, più in generale, del riferimento culturale).
Resumo:
La zona della piattaforma Adriatica, visibile in sismica a sud della costa croato – montenegrina, è stata oggetto di ricerche petrolifere in passato. Nuovi dati sismici hanno permesso la visualizzazione di alcune caratteristiche che saranno esaminate ed interpretate nel presente lavoro. In particolare ci si concentrerà sulla caratterizzazione e sulla differenziazione dei margini incontrati durante il lavoro di interpretazione. In questa fase, sono emerse delle caratteristiche che hanno permesso una revisione del margine della piattaforma Adriatica e del bacino di Budva noti nella letteratura pregressa. Il problema della differenziazione dei margini della piattaforma è stato affrontato sia in chiave tettonica (influenza della subsidenza, inversione di margini ad opera di un Thrust, tettonica ialina, buckling) che in chiave paleoambientale (influenza di venti dominanti) ricoprendo un arco temporale che spazia tra il Triassico superiore ed il Miocene superiore. Grazie alle interpretazioni effettuate e al confronto con la letteratura, saranno proposte, in una seconda fase, alcune situazioni favorevoli all’accumulo di idrocarburi nella zona di studio. Verrà, infine, affrontato il confronto con casi di letteratura inerenti i margini della vicina piattaforma Apula, considerati come margini coniugati della piattaforma Adriatica.
Resumo:
Il Digital Marketing si occupa di tutto quello che possiamo fare, grazie ad Internet, per far crescere il business aziendale. Le tecnologie informatiche negli ultimi anni stanno producendo degli effetti pervasivi sulle infrastrutture delle imprese, sui prodotti, sui mercati e sui consumatori, con una rilevanza tale all'interno di un periodo di tempo relativamente limitato che non è possibile riscontrare in nessuna epoca passata. Coinvolgono le relazioni tra imprese, i mercati dei consumatori, le relazioni tra gli stessi consumatori, le singole componenti del marketing mix (prodotto, prezzo, comunicazione, distribuzione) e le loro modalità di interazione e di gestione all'interno della strategia di marketing dell'impresa. L'evoluzione del mondo digitale ha portato imprese e consumatori a dover affrontare un cambiamento radicale del paradigma di marketing e comunicazione che vede la relazione e l'interazione al centro di uno scambio di messaggi bilaterali altamente personalizzati e costanti. Il marketing non è un processo lineare ma circolare, in cui ascolto e comprensione dei bisogni e delle forze che agiscono sui mercati, progettazione dei prodotti o servizi in grado di rispondere alle nuove opportunità individuate, si integrano e cambiano continuamente. Quando si parla di Internet e commercio non si pensa solo all'e-commerce, ovvero all'acquisto e al pagamento del prodotto su Internet. La Rete ha acquisito un'influenza basilare in tutte le fasi precedenti all'acquisto infatti sul Web si attuano attività di ricerca e raccolta di informazioni, selezione, comparazione e perfezionamento che precedono la decisione d'acquisto e che specialmente per i beni durevoli e dall'alto valore monetario rappresentano un momento cruciale del processo d'acquisto. Questo fenomeno ha condizionato uno scenario di mercato in cui si sono abbassate le barriere di accesso all'informazione, si sono ridotti i tempi di relazione tra le persone e tra le persone e l'azienda e in alcuni settori sono crollare le barriere all'ingresso permettendo, attraverso la creazione di attività online di raggiungere e instaurare una relazione diretta. Questo elaborato si propone come un'analisi del digital marketing. Suddiviso in sei capitoli vuole dare una soddisfacente panoramica di questo nuovo marketing.
Resumo:
Capire come modellare l'attività del cervello a riposo, resting state, è il primo passo necessario per avvicinarsi a una reale comprensione della dinamica cerebrale. Sperimentalmente si osserva che, quando il cervello non è soggetto a stimoli esterni, particolari reti di regioni cerebrali presentano un'attività neuronale superiore alla media. Nonostante gli sforzi dei ricercatori, non è ancora chiara la relazione che sussiste tra le connessioni strutturali e le connessioni funzionali del sistema cerebrale a riposo, organizzate nella matrice di connettività funzionale. Recenti studi sperimentali mostrano la natura non stazionaria della connettività funzionale in disaccordo con i modelli in letteratura. Il modello implementato nella presente tesi per simulare l'evoluzione temporale del network permette di riprodurre il comportamento dinamico della connettività funzionale. Per la prima volta in questa tesi, secondo i lavori a noi noti, un modello di resting state è implementato nel cervello di un topo. Poco è noto, infatti, riguardo all'architettura funzionale su larga scala del cervello dei topi, nonostante il largo utilizzo di tale sistema nella modellizzazione dei disturbi neurologici. Le connessioni strutturali utilizzate per definire la topologia della rete neurale sono quelle ottenute dall'Allen Institute for Brain Science. Tale strumento fornisce una straordinaria opportunità per riprodurre simulazioni realistiche, poiché, come affermato nell'articolo che presenta tale lavoro, questo connettoma è il più esauriente disponibile, ad oggi, in ogni specie vertebrata. I parametri liberi del modello sono stati scelti in modo da inizializzare il sistema nel range dinamico ottimale per riprodurre il comportamento dinamico della connettività funzionale. Diverse considerazioni e misure sono state effettuate sul segnale BOLD simulato per meglio comprenderne la natura. L'accordo soddisfacente fra i centri funzionali calcolati nel network cerebrale simulato e quelli ottenuti tramite l'indagine sperimentale di Mechling et al., 2014 comprovano la bontà del modello e dei metodi utilizzati per analizzare il segnale simulato.
Resumo:
In questo lavoro di tesi è stata studiata l'anisotropia magnetica di film sottili epitassiali di La0.7Sr0.3MnO3 (LSMO), cresciuti con la tecnica Channel Spark Ablation su substrati monocristallini di SrTiO3 (001). L'interesse nei confronti di questi materiali nasce dal fatto che, grazie alla loro proprietà di half-metallicity, sono usati come iniettori di spin in dispositivi per applicazioni in spintronica, l'elettronica che considera elemento attivo per l'informazione non solo la carica elettrica ma anche lo spin dei portatori. Un tipico esempio di dispositivo spintronico è la valvola di spin (un dispositivo costituito da due film ferromagnetici metallici separati da uno strato conduttore o isolante) il cui stato resistivo dipende dall'orientazione relativa dei vettori magnetizzazione (parallela o antiparallela) degli strati ferromagnetici. E’ quindi di fondamentale importanza conoscere i meccanismi di magnetizzazione dei film che fungono da iniettori di spin. Questa indagine è stata effettuata misurando cicli di isteresi magnetica grazie ad un magnetometro MOKE (magneto-optical Kerr effect). Le misure di campo coercitivo e della magnetizzazione di rimanenza al variare dell'orientazione del campo rispetto al campione, permettono di identificare l'anisotropia, cioè gli assi di facile e difficile magnetizzazione. I risultati delle misure indicano una diversa anisotropia in funzione dello spessore del film: anisotropia biassiale (cioè con due assi facili di magnetizzazione) per film spessi 40 nm e uniassiale (un asse facile) per film spessi 20 nm. L'anisotropia biassiale viene associata allo strain che il substrato cristallino induce nel piano del film, mentre l'origine dell'uniassialità trova la giustificazione più probabile nella morfologia del substrato, in particolare nella presenza di terrazzamenti che potrebbero indurre una step-induced anisotropy. Il contributo di questi fattori di anisotropia alla magnetizzazione è stato studiato anche in temperatura.