962 resultados para Gwyn, Nell, 1650-1687.
Resumo:
Questa tesi si pone l'obiettivo di applicare un metodo lineare per l'inversione delle curve di dispersione delle onde superficiali di Rayleigh da rumore sismico, al fine di descrivere con maggior definizione la struttura della crosta terrestre in corrispondenza dell'Italia settentrionale e confrontarlo con il modello di riferimento. Si è fatto uso del processo di cross-correlazione applicato al rumore sismico per ricostruire la Funzione di Green per ogni coppia di stazioni. Sono state considerate circa 100 stazioni, tutte nel Nord-Italia. I segnali ottenuti sono costituiti principalmente da onde di superficie, in particolare onde di Rayleigh, le quali dominano i segnali in ampiezza. Per periodi compresi tra 1s e 50s, per ogni raggio tra coppie di stazioni, è stata misurata la velcoità di gruppo tramite l'utilizzo del software EGFAnalysisTimeFreq per Matlab. Le curve di dispersione così ottenute sono state utilizzate come dato per la risoluzione del problema inverso, al fine di ottenere mappe2D della velocità di gruppo che è fortemente dipendente dalle caratteristiche del mezzo. Infine queste ultime sono state confrontate con mappe di un modello esistente per la regione (Molinari et al. [22]).
Resumo:
L’esperimento CMS a LHC ha raccolto ingenti moli di dati durante Run-1, e sta sfruttando il periodo di shutdown (LS1) per evolvere il proprio sistema di calcolo. Tra i possibili miglioramenti al sistema, emergono ampi margini di ottimizzazione nell’uso dello storage ai centri di calcolo di livello Tier-2, che rappresentano - in Worldwide LHC Computing Grid (WLCG)- il fulcro delle risorse dedicate all’analisi distribuita su Grid. In questa tesi viene affrontato uno studio della popolarità dei dati di CMS nell’analisi distribuita su Grid ai Tier-2. Obiettivo del lavoro è dotare il sistema di calcolo di CMS di un sistema per valutare sistematicamente l’ammontare di spazio disco scritto ma non acceduto ai centri Tier-2, contribuendo alla costruzione di un sistema evoluto di data management dinamico che sappia adattarsi elasticamente alle diversi condizioni operative - rimuovendo repliche dei dati non necessarie o aggiungendo repliche dei dati più “popolari” - e dunque, in ultima analisi, che possa aumentare l’“analysis throughput” complessivo. Il Capitolo 1 fornisce una panoramica dell’esperimento CMS a LHC. Il Capitolo 2 descrive il CMS Computing Model nelle sue generalità, focalizzando la sua attenzione principalmente sul data management e sulle infrastrutture ad esso connesse. Il Capitolo 3 descrive il CMS Popularity Service, fornendo una visione d’insieme sui servizi di data popularity già presenti in CMS prima dell’inizio di questo lavoro. Il Capitolo 4 descrive l’architettura del toolkit sviluppato per questa tesi, ponendo le basi per il Capitolo successivo. Il Capitolo 5 presenta e discute gli studi di data popularity condotti sui dati raccolti attraverso l’infrastruttura precedentemente sviluppata. L’appendice A raccoglie due esempi di codice creato per gestire il toolkit attra- verso cui si raccolgono ed elaborano i dati.
Resumo:
Per far fronte alla necessità di sviluppo incrementale ed evolutivo dell'IT, è necessario un continuo rinnovamento del sistema aziendale. Negli ultimi anni, il progresso informatico è stato caratterizzato dall'espansione delle tecnologie Cloud, in grado di semplificare la complessità amministrativa delle aziende, aumentare la scalabilità dei sistemi e ridurre i costi di produzione. Nel corso di questo elaborato analizzerò nel dettaglio come il Cloud sia capace di rivoluzionare, in primis dal punto di vista amministrativo, ma non solo, i sistemi informatici moderni, valutando i molteplici benefici da esso generati e gli inevitabili trade-off che ne derivano.
Resumo:
Una delle operazioni di marketing che le imprese produttrici di beni tradizionali svolgono maggiormente online è il concorso a premi e questa tesi si pone come obiettivo quello di capire come queste ultime debbano usare una risorsa simile nell’era di internet.
Resumo:
In virtù della crescente importanza dell’impiego del software nel settore dei dispositivi medici, come software indipendente (stand-alone) oppure come software incorporato in un altro dispositivo medico, un requisito essenziale per il suo utilizzo è la validazione secondo lo stato dell’arte. La certificazione come dispositivo medico diviene in tal modo fonte di garanzia e di sicurezza per il suo impiego. Il Sistema Informativo di Laboratorio (LIS), supportando il processo operativo dei dispositivi medico-diagnostici in vitro, necessita di una regolamentazione in tale direzione. Il workflow del Laboratorio Analisi, suddiviso in fasi preanalitica, analitica e postanalitica, ha beneficiato dell’introduzione di un sistema informatico in grado di gestire le richieste di esami dei pazienti e di processare e memorizzare le informazioni generate dalle apparecchiature presenti nel laboratorio. Più di ogni altro scenario clinico, il Laboratorio Analisi si presta ad essere organizzato sfruttando un modello di gestione fortemente integrato. Le potenzialità ad esso connesse garantiscono un aumento di produttività, una riduzione degli errori di laboratorio e una maggior sicurezza sia per i professionisti sanitari che per l’intero processo analitico. Per l’importanza clinica affidata al dato di laboratorio, la sua diffusione deve avvenire in maniera veloce e sicura; ciò è possibile se il ritorno elettronico dei risultati al medico richiedente si avvale dello standard HL7, il cui utilizzo è promosso dal modello IHE. La presenza di un unico database sanitario contenente anagrafiche univoche, facilmente aggiornabili, riduce il rischio di errata identificazione del paziente e, in particolare, offre la possibilità di disporre dei risultati di esami precedenti, opportunità particolarmente utile nel delineare il quadro clinico di pazienti cronici. Tale vantaggio e molte altre strategie, in grado di migliorare la qualità dell’assistenza e dell’outcome clinico, permettono di definire il laboratorio clinico come “motore di appropriatezza”.
Resumo:
tesi di ricerca sulla stampa 3d per il gioiello.
Resumo:
Questa tesi si compone di due parti tra loro correlate. Nella prima viene analizzato l’attuale stato dell’arte in ambito di robot chirurgici e, successivamente, sono illustrate le caratteristiche tecniche e funzionali del robot chirurgico Da Vinci Si e ne viene evidenziata la mancanza di sensori in grado di fornire all’utilizzatore un feedback aptico. La seconda parte propone uno studio che ha lo scopo di dimostrare come l’esperienza del chirurgo riesca a sopperire alla mancanza di un sensore in grado di fornire un riscontro della forza impressa sugli strumenti nel campo operatorio. A questo proposito, vengono illustrati i risultati del test appositamente costruito, cui è stato sottoposto un campione di chirurghi di diversi ambiti specialistici, per dimostrare come l’esperienza e la destrezza consentono all’utilizzatore del robot Da Vinci Si di ricevere un’indicazione della forza impressa sui tessuti del campo operatorio tramite un riscontro visivo.
Resumo:
La realizzazione della componentistica satellitare è una disciplina innovativa e sempre in aggiornamento, capitanata dall’obiettivo di minimizzare il peso e il volume delle componenti e concretizzare così missioni satellitari affidabili ma sempre più economiche. Questo lavoro di tesi viene svolto nell’ambito di strumenti per la simulazione di sistemi di controllo di assetto di un satellite in orbita bassa terrestre. Il lavoro è volto ad ottenere uno strumento per compiere studi preliminari di missioni di microsatelliti, che sia dotato della possibilità di scegliere più combinazioni di attuatori e sensori e che permetta di valutare la bontà e i vantaggi derivanti dalla scelta di tali configurazioni scelte. Il punto di partenza è stato un simulatore realizzato in ambiente Matlab/Simulink per il monitoraggio di uno specifico microsatellite, ALMASat-1 dell’Università di Bologna. Vi sono stati aggiunti dei tools allo scopo di aggiornare il simulatore a nuove tecnologie e di consentire di realizzare diverse combinazioni di determinazione e controllo in assetto. Si presenterà inizialmente l’interfaccia grafica realizzata per facilitare l’utilizzo del simulatore e si mostreranno successivamente le modifiche apportate in concomitanza con l’aggiornamento del simulatore. Tra le innovazioni applicate al simulatore si annoverano la possibilità di far iniziare la simulazione in precisi stadi di assetto, permettendo all’utente di discriminare solo le fasi ad egli utili, e il miglioramento del sistema di determinazione dell’assetto, compiuto aggiungendo al sistema un simulatore di sensore di stelle, il più accurato tra tutti i sensori e il cui utilizzo, tipicamente riservato a missioni ad elevato budget, si è reso recentemente compatibile, in termini di dimensioni peso e costi, anche a piattaforme satellitari di dimensioni ridotte. Per entrambi gli aspetti verranno mostrate le rispettive modalità di realizzazione, ponendo particolare attenzione all’analisi posta per l’implementazione di uno strumento di misura. Infine sarà presente una discussione sui vantaggi offerti dal simulatore rinnovato.
Resumo:
This study is based on a former student’s work, aimed at examining the influence of handedness on conference interpreting. In simultaneous interpreting (IS) both cerebral hemispheres participate in the decoding of the incoming message and in the activation of the motor functions for the production of the output signal. In right-handers language functions are mainly located in the left hemisphere, while left-handers have a more symmetrical representation of language functions. Given that with the development of interpreting skills and a long work experience the interpreters’ brain becomes less lateralized for language functions, in an initial phase left-handers may be «neurobiologically better suited for interpreting tasks» (Gran and Fabbro 1988: 37). To test this hypothesis, 9 students (5 right-handers and 4 left-handers) participated in a dual test of simultaneous and consecutive interpretation (CI) from English into Italian. The subjects were asked to interpret one text with their preferred ear and the other with the non-preferred one, since according neuropsychology aural symmetry reflects cerebral symmetry. The aim of this study was to analyze:1) the differences between the number of errors in consecutive and simultaneous interpretation with the preferred and non-preferred ear; 2) the differences in performance (in terms of number of errors) between right-handed and left-handed, both with the preferred and non-preferred ear; 3) the most frequent types of errors in right and left-handers; 4) the influence of the degree of handedness on interpreting quality. The students’ performances were analyzed in terms of errors of meaning, errors of numbers, omissions of text, omissions of numbers, inaccuracies, errors of nexus, and unfinished sentences. The results showed that: 1) in SI subjects committed fewer errors interpreting with the preferred ear, whereas in CI a slight advantage of the non-preferred ear was observed. Moreover, in CI, right-handers committed fewer mistakes with the non-preferred ear than with the preferred one. 2) The total performance of left-handers proved to be better than that of right-handers. 3) In SI left-handers committed fewer errors of meaning and fewer errors of number than right-handers, whereas in CI left-handers committed fewer errors of meaning and more errors of number than right-handers 4) As the degree of left-handedness increases, the number of errors committed also increases. Moreover, there is a statistically significant left-ear advantage for right-handers and a right-ear one for left-handers. Finally, those who interpreted with their right ear committed fewer errors of number than those who have used their left ear or both ears.
Resumo:
Questa ricerca si concentra sulla gestione dei sintagmi nominali complessi nell’interpretazione simultanea in italiano dei discorsi inglesi del corpus elettronico EPIC (European Parliament Interpreting Corpus). EPIC contiene le trascrizioni di discorsi pronunciati al Parlamento europeo in inglese, italiano e spagnolo e le rispettive interpretazioni nelle altre due lingue. Per quest’analisi sono stati utilizzati due sottocorpora: I discorsi originali inglesi e i rispettivi discorsi interpretati in italiano. L’obiettivo del progetto era estrarre i sintagmi nominali complessi dal sottocorpus dei discorsi inglesi e confrontarli con le rispettive traduzioni in italiano per studiare le strategie adottate dagli interpreti. L’ipotesi iniziale era che i sintagmi nominali complessi sono una sfida traduttiva. I sintagmi analizzati erano stringhe di parole formate da una testa nominale preceduta da due o più modificatori, che potevano essere aggettivi, sostantivi, avverbi, numeri cardinali e genitivi. Nel primo capitolo sono state descritte le caratteristiche dei modificatori sia in inglese che in italiano. Il secondo capitolo espone lo stato dell’arte degli studi di interpretazione basati sui corpora, con una sezione dedicata agli studi svolti su EPIC. Il terzo capitolo si concentra sulla metodologia utilizzata. I dati sono stati estratti automaticamente con tre espressioni di ricerca e poi selezionati manualmente secondo dei criteri di inclusione e di esclusione. I sintagmi nominali scelti sono stati confrontati con le corrispondenti traduzioni in italiano e classificati secondo il modello teorico delle relazioni traduttive di Schjoldager (1995). Il quarto capitolo contiene I dati raccolti, che sono stati analizzati nel quinto capitolo sia da un punto di vista quantitativo che qualitativo. I sintagmi nominali in tutto il sottocorpus sono stati confrontati con i sintagmi nominali di gruppi specifici di testi, suddivisi secondo la velocità di eloquio e la modalità di presentazione. L’ipotesi iniziale è stata in parte confermata e sono state descritte le strategie traduttive adottate dagli interpreti.
Resumo:
L'informatica e le sue tecnologie nella società moderna si riassumono spesso in un assioma fuorviante: essa, infatti, è comunemente legata al concetto che ciò che le tecnologie ci offrono può essere accessibile da tutti e sfruttato, all'interno della propria quotidianità, in modi più o meno semplici. Anche se quello appena descritto è un obiettivo fondamentale del mondo high-tech, occorre chiarire subito una questione: l'informatica non è semplicemente tutto ciò che le tecnologie ci offrono, perchè questo pensiero sommario fa presagire ad un'informatica "generalizzante"; l'informatica invece si divide tra molteplici ambiti, toccando diversi mondi inter-disciplinari. L'importanza di queste tecnologie nella società moderna deve spingerci a porre domande, riflessioni sul perchè l'informatica, in tutte le sue sfaccettature, negli ultimi decenni, ha portato una vera e propria rivoluzione nelle nostre vite, nelle nostre abitudini, e non di meno importanza, nel nostro contesto lavorativo e aziendale, e non ha alcuna intenzione (per fortuna) di fermare le proprie possibilità di sviluppo. In questo trattato ci occuperemo di definire una particolare tecnica moderna relativa a una parte di quel mondo complesso che viene definito come "Intelligenza Artificiale". L'intelligenza Artificiale (IA) è una scienza che si è sviluppata proprio con il progresso tecnologico e dei suoi potenti strumenti, che non sono solo informatici, ma soprattutto teorico-matematici (probabilistici) e anche inerenti l'ambito Elettronico-TLC (basti pensare alla Robotica): ecco l'interdisciplinarità. Concetto che è fondamentale per poi affrontare il nocciolo del percorso presentato nel secondo capitolo del documento proposto: i due approcci possibili, semantico e probabilistico, verso l'elaborazione del linguaggio naturale(NLP), branca fondamentale di IA. Per quanto darò un buono spazio nella tesi a come le tecniche di NLP semantiche e statistiche si siano sviluppate nel tempo, verrà prestata attenzione soprattutto ai concetti fondamentali di questi ambiti, perché, come già detto sopra, anche se è fondamentale farsi delle basi e conoscere l'evoluzione di queste tecnologie nel tempo, l'obiettivo è quello a un certo punto di staccarsi e studiare il livello tecnologico moderno inerenti a questo mondo, con uno sguardo anche al domani: in questo caso, la Sentiment Analysis (capitolo 3). Sentiment Analysis (SA) è una tecnica di NLP che si sta definendo proprio ai giorni nostri, tecnica che si è sviluppata soprattutto in relazione all'esplosione del fenomeno Social Network, che viviamo e "tocchiamo" costantemente. L'approfondimento centrale della tesi verterà sulla presentazione di alcuni esempi moderni e modelli di SA che riguardano entrambi gli approcci (statistico e semantico), con particolare attenzione a modelli di SA che sono stati proposti per Twitter in questi ultimi anni, valutando quali sono gli scenari che propone questa tecnica moderna, e a quali conseguenze contestuali (e non) potrebbe portare questa particolare tecnica.
Resumo:
Breve introduzione alla cultura tradizionale, concentrandosi su confucianesimo e taoismo; approfondimento in ambito economico sulle tendenze del mercato del lusso in Cina; traduzione di parte dell'articolo di 刘 聪 “中国奢侈品市场走向成熟: 挖掘长线潜能", tratto dal bi-settimanale Fortune China. Il tutto per comprendere lo sviluppo e le caratteristiche del mercato del lusso cinese.
Resumo:
Ogni anno si registra un crescente aumento delle persone affette da patologie neurodegenerative come la sclerosi laterale amiotrofica, la sclerosi multipla, la malattia di Parkinson e persone soggette a gravi disabilità motorie dovute ad ictus, paralisi cerebrale o lesioni al midollo spinale. Spesso tali condizioni comportano menomazioni molto invalidanti e permanenti delle vie nervose, deputate al controllo dei muscoli coinvolti nell’esecuzione volontaria delle azioni. Negli ultimi anni, molti gruppi di ricerca si sono interessati allo sviluppo di sistemi in grado di soddisfare le volontà dell’utente. Tali sistemi sono generalmente definiti interfacce neurali e non sono pensati per funzionare autonomamente ma per interagire con il soggetto. Tali tecnologie, note anche come Brain Computer Interface (BCI), consentono una comunicazione diretta tra il cervello ed un’apparecchiatura esterna, basata generalmente sull’elettroencefalografia (EEG), in grado di far comunicare il sistema nervoso centrale con una periferica esterna. Tali strumenti non impiegano le usuali vie efferenti coinvolte nella produzione di azioni quali nervi e muscoli, ma collegano l'attività cerebrale ad un computer che ne registra ed interpreta le variazioni, permettendo quindi di ripristinare in modo alternativo i collegamenti danneggiati e recuperare, almeno in parte, le funzioni perse. I risultati di numerosi studi dimostrano che i sistemi BCI possono consentire alle persone con gravi disabilità motorie di condividere le loro intenzioni con il mondo circostante e provano perciò il ruolo importante che esse sono in grado di svolgere in alcune fasi della loro vita.
Resumo:
il ruolo della tesi è stato di valorizzare attraverso la valutazione di un peso l'urgenza e la necessità di cure dei pazienti processati da un modello di ottimizzazione. Essa si inserisce all'interno di un progetto di creazione di tale modello per la schedulazione di interventi in un reparto chirurgico di un generico ospedale.si è fatto uso del software ibm opl optimization suite.
Resumo:
La tesi evidenzia quanto importante sia l'uso dei giochi di strategia per la didattica della Matematica con particolare attenzione per il gioco del Bridge. Fornisce qualche strumento in più per appassionare lo studente alla matematica. I temi affrontati sono i seguenti: La probabilità con l'uso delle carte, la Matematica che occorre ad un giocatore di bridge per migliorare le proprie prestazioni, i problemi di bridge che offrono stimoli per lo studio della matematica e il Bridge come sport della mente.