941 resultados para 617.9 Tecnica operatoria e campi speciali della chirurgia
Resumo:
La curva di durata di lungo periodo (POR) è uno strumento grafico molto efficace che mette in evidenza la relazione fra intensità e frequenza delle portate osservate in un determinato intervallo temporale. Essa è ricavata dall'idrogramma dei deflussi, ma presenta il problema della perdita di informazioni relative alla variabilità annuale e stagionali delle portate. Per tal motivo si è reso necessario l'utilizzo di due nuove interpretazioni delle curve di durate: le curve di durata annuali (alle quali può essere associato il concetto di percentile e quindi di probabilità di superamento di un particolare valore di portata) e le curve a base stagionale. La costruzione di tali curve, come nel caso delle POR complessive, è ostacolata dall'insufficienza di dati di portata, per cui sono utilizzate, a tale scopo, procedure di stima basate sulla regionalizzazione dei deflussi. Tra di esse è stato analizzata la tecnica geostatistica del Top-kriging applicata all'indice TND che sintetizza l'intera curva (Pugliese et al., 2014) nella ricostruzione, in cross-validazione, delle curve di durata annuali e stagionali di 182 bacini della regione sud-orientale degli Stati Uniti.
Resumo:
Fashion is a mighty social phenomenon, therefore its linguistic representation, like many other aspects, serves as an opportunity to study the bonds between two languages. The first chapter of this thesis examines both the technical jargon of dress makers and the richer, more creative language used in glossy magazines, in an attempt to determine whether the language of fashion should be considered a language for specific purpose (LSP) or not. The second chapter provides a theoretical framework for translating a technical text and contributions of different scholars are taken into account. The third chapter delves deeper into the core of the work, the technical translation itself. It analyses the different strategies, the translation transformations, that proved to be necessary in the transition from Italian into Russian. Since the lexicon of special languages is their most obvious distinguishing characteristic, the commentary focuses on what are considered the most effective ways of enriching the Russian vocabulary of fashion, international words, calques and loanwords, especially form English and French. Overall, this influence has greatly accelerated in the last past decades because of dramatic changes in society and economy.
Resumo:
I complessi intrusivi alcalini, e i loro prodotti di alterazione, costituiscono una delle principali risorse di materie prime ad alto valore economico. Il magmatismo alcalino è di solito associato a fenomeni di rifting continentale che può essere legato o ad un’incipiente divergenza di placche litosferiche (Rift dell’Africa Orientale) o ad eventi distensivi post-collisionali. La caratterizzazione petrografica, geochimica e geocronologia di questi complessi sono prerequisiti essenziali per ogni progetto di prospezione mineraria. In Italia uno dei complessi alcalini più conosciuti è il Plutone Oligocenico della Valle del Cervo (Biella). La petrografia e la composizione degli elementi maggiori e in traccia dei diversi litotipi che lo compongono sono conosciuti nella letteratura geologica. Le datazioni radiometriche disponibili, tuttavia, sono limitate a dati Rb-Sr su separati di biotite e a più recenti dati U-Pb su zircone separato dal piccolo nucleo granitico del Plutone Oligocenico della Valle del Cervo. In entrambi i casi sono state ottenute età radiometriche di circa 30 Ma. Questo lavoro di tesi si basa sull’analisi degli isotopi U-Pb di zirconi separati dalla sienite e dal monzogranito a megacristalli di ortoclasio che costituiscono gran parte del Plutone Oligocenico della Valle del Cervo. Dopo una caratterizzazione petrografica e geochimica dei campioni scelti si è proceduto alla separazione degli zirconi tramite i metodi di routine che includono separazione gravimetrica, magnetica e liquidi pesanti. I rapporti isotopici U-Pb degli zirconi sono stati determinati presso l’Istituto di Geoscienze e Georisorse, Unità di Pavia, usando la tecnica di spettrometria di massa accoppiata ad una microsonda ad ablazione laser (LA ICP-MS). Le età U-Pb medie determinate per la sienite (33 Ma) e per il monzogranito a megacristalli di ortoclasio (29 Ma) sono da considerarsi età magmatiche relative alla cristallizzazione dei fusi che diedero origine a queste rocce.
Resumo:
Questa tesi è volta a fornire un contributo conoscitivo alla quantificazione delle interferenze idrogeologiche causate dalla nuova stazione sotterranea del nodo di penetrazione ferroviaria urbana AV di Firenze, situata nei pressi dell’attuale stazione di superficie di Santa Maria Novella, e della verifica del dimensionamento delle opere di mitigazione in progetto. La tesi è effettuata in collaborazione e con il supporto tecnico di ARPAT (Agenzia Regionale per la Protezione Ambientale della Toscana), Sede di Firenze, Direzione Tecnica – Settore VIA/VAS (Valutazione d’Impatto Ambientale/Valutazione Ambientale Strategica). ARPAT è l’organo di supporto tecnico dell’Osservatorio Ambientale costituito per l’opera. La tesi sfrutta, come dati di base, tutti quelli raccolti dai progettisti nelle varie fasi, compresa la determinazione dei parametri idraulici dell’acquifero, ed i dati del monitoraggio ambientale. Il proponente dell’opera è RFI (Rete Ferroviaria Italiana) ed è realizzata e progettata dal consorzio Nodavia (General Contractor). Per l’analisi dell’interferenza idrogeologica causata dal camerone della stazione dell’alta velocità di Firenze è stato utilizzato un duplice approccio: un modello fisico ricostruito in laboratorio; un modello numerico alla differenze finite tramite codice Modflow.. Il modello fisico di laboratorio ha cercato di ricostruire, semplificandolo, il modello concettuale del problema idrogeologico di studio: l’inserimento di una diga totalmente impermeabile, trasversalmente al flusso in un mezzo poroso, attraversata da dreni orizzontali di collegamento monte-valle idrologico. Tale configurazione, anche se non strettamente in scala, ha permesso di definire preliminarmente le condizioni al contorno del sistema ed ha guidato la successiva implementazione del modello numerico. Il modello numerico fa riferimento a condizioni stazionarie. Prima è stato implementato per simulare l’andamento della falda nelle condizioni stazionarie ante-operam (I fase); successivamente è stato utilizzato per simulare l’effetto diga del camerone (II fase) e, come terza fase, per simulare l’effetto delle opere di mitigazione dell’effetto diga rappresentate da dreni sub-orizzontali.
Resumo:
L'utilizzo dell'idrogeno come vettore energetico è uno dei temi, riguardanti la sostenibilità energetica, di maggior rilievo degli ultimi anni. Tuttavia ad oggi è ancora in corso la ricerca di un sistema che ne permetta un immagazzinamento efficiente. Il MgH2 costituisce un valido candidato per la produzione di sistemi per lo stoccaggio di idrogeno allo stato solido. In questa tesi, per migliorare le proprietà cinetiche e termodinamiche di cui questo sistema, sono stati sintetizzati dei campioni nanostrutturati composti da Mg-Ti attraverso la tecnica Inert Gas Condensation. I campioni così ottenuti sono stati analizzati dal punto di vista morfologico e composizionale, mediante la microscopia elettronica a scansione, la microanalisi e la diffrazione di raggi X. Tali analisi hanno mostrato che le dimensioni delle nanoparticelle sono comprese tra i 10-30 nm e che la tecnica IGC permette una distribuzione uniforme del titanio all'interno della matrice Mg. Le misure di caratterizzazione per l'assorbimento reversibile di idrogeno sono state effettuate attraverso il metodo volumetrico, Sievert. I campioni sono stati analizzati a varie temperature (473K-573K). Cineticamente la presenza di titanio ha provocato un aumento della velocità delle cinetiche sia per i processi di desorbimento che per quelli di assorbimento ed ha contribuito ad una diminuzione consistente delle energie di attivazione di entrambi i processi rispetto a quelle note in letteratura per il composto MgH2. Dal punto di vista termodinamico, sia le pressioni di equilibrio ottenute dalle analisi PCT a diverse temperature, che l'entalpia e l'entropia di formazione risultano essere in accordo con i valori conosciuti per il sistema MgH2. All'interno di questo lavoro di tesi è inoltre presentata un'analisi preliminare di un campione analizzato con la tecnica Synchrotron Radiation-Powder X Ray Diffraction in situ, presso la facility MAX-lab (Svezia), all’interno dell’azione COST, MP1103 per la ricerca di sistemi per lo stoccaggio di idrogeno allo stato solido.
Resumo:
Questo elaborato tratta dell'importanza dell'analisi testuale tramite strumenti informatici. Presenta la tecnica più utilizzata per questo tipo di analisi il: Topic Modeling. Vengono indicati alcuni degli algoritmi più sfruttati e si descrivono gli obiettivi principali. Inoltre introduce il Web Mining per l’estrazione di informazioni presenti nel web, specificando una tecnica particolare chiamata Web Scraping. Nell'ultima sezione dell’elaborato viene descritto un caso di studio. L’argomento dello studio è la Privatizzazione. Viene suddiviso in tre fasi, la primi riguarda la ricerca dei documenti e articoli da analizzare del quotidiano La Repubblica, nella seconda parte la raccolta di documenti viene analizzata attraverso l’uso del software MALLET e come ultimo passo vengono analizzati i topic, prodotti dal programma, a cui vengono assegnate delle etichette per identificare i sotto-argomenti presenti nei documenti della raccolta.
Resumo:
In questo lavoro di tesi si studieranno le acque superficiali e sotterranee del fiume Marecchia, che sono continuamente monitorate da ARPA allo scopo di mantenere l'ambiente idrologico in buono stato. Una particolare attenzione è stata riposta nell'analisi dell'azoto e dei suoi composti, poiché nella conoide del Marecchia si è sempre osservata una forte presenza di questo tipo di composti, che negli anni hanno causato forti danni all'ambiente. Per raggiungere tale obiettivo, è stato fondamentale ripercorrere gli andamenti dei parametri nel corso degli anni, ricorrendo a dati forniti da ARPA e analizzando direttamente campioni raccolti in campo. Nelle acque analizzate sono state riscontrate varie anomalie, soprattutto nel sito in corrispondenza di via Tonale, che potrebbero essere ricondotte al grave problema dell'intrusione dell'acqua di mare in falda, e degli apporti di tali elementi durante le mareggiate; nel sito campionato nei pressi di Vergiano sono state riscontrate concentrazioni di solfati, cloruri e nitrati in aumento, che potrebbero essere causati da scarichi diretti in falda o nelle acque superficiali, oppure dilavamento dei campi da parte dell'acqua piovana. Anche le concentrazioni di nitriti, determinate nei punti di campionamento nel Torrente Ausa, superano notevolmente la concentrazione limite di 0.5 mg/l e tale effetto potrebbe essere causato da un uso indiscriminato di insetticidi, diserbanti e pesticidi composti da elementi ricchi di azoto, oppure dagli scarichi diretti di colorifici e industrie immessi direttamente nel torrente da parte dello stato di San Marino. Quanto evidenziato con questo studio potrebbe essere un incentivo per gli enti regionali, provinciali e comunali per migliorare il monitoraggio di alcune zone del fiume Marecchia e per ottimizzare i sistemi di gestione del territorio.
Resumo:
Questa tesi si propone di realizzare una caratterizzazione del polimero ABS ottenuto con tecnica Fused Deposition Modeling in modo da ottenere dati utili alla realizzazione di parti strutturali tramite rapid prototyping.
Resumo:
Nel seguente lavoro è stata sviluppata una analisi ambientale ed economica del ciclo di vita del pellet, realizzato con scarti agricoli dalle potature degli uliveti. L’obiettivo di tale lavoro è dimostrare se effettivamente l’utilizzo del pellet apporti vantaggi sia dal punto di vista ambientale sia da quello economico. In tale progetto si sviluppano quindi un LCA, Life cycle analysis, e un LCC, Life Cycle Cost, secondo gli steps standard suggeriti da tali metodologie. Per effettuare l’analisi del ciclo di vita è stato utilizzato il software Simapro che ha permesso di valutare gli impatti ambientali sulle varie categorie di impatto incluse. In particolare sono stati considerati due metodologie, una midpoint ed una endpoint, ossia l’Ecoindicator 99 e il CML2 baseline 2000. Per le valutazioni finali è stata poi utilizzata la normativa spagnola sugli impatti ambientali, BOE 21/2013 del 9 dicembre, che ci ha permesso di caraterizzare le varie categorie d’impatto facendo emergere quelle più impattate e quelle meno impattate. I risultati finali hanno mostrato che la maggior parte degli impatti sono di tipo compatibile e moderato; pochi, invece, sono gli impatti severi e compatibili, che si riscontrano soprattutto nella categoria d’impatto “Fossil Fuels”. Per quanto riguarda invece l’analisi economica, si è proceduto effettuando una valutazione iniziale fatta su tutto il processo produttivo considerato, poi una valutazione dal punto di vista del produttore attraverso una valutazione dell’investimento ed infine, una valutazione dal punto di vista del cliente finale. Da queste valutazioni è emerso che ciò risulta conveniente dal punto di vista economico non solo per il produttore ma anche per l’utente finale. Per il primo perché dopo i primi due anni di esercizio recupera l’investimento iniziale iniziando ad avere un guadagno; e per il secondo, poiché il prezzo del pellet è inferiore a quello del metano. Quindi, in conclusione, salvo cambiamenti in ambito normativo ed economico, l’utilizzo del pellet realizzato da scarti di potature di uliveti risulta essere una buona soluzione per realizzare energia termica sia dal punto di vista ambientale, essendo il pellet una biomassa il cui ciclo produttivo non impatta severamente sull’ambiente; sia dal punto di vista economico permettendo al produttore introiti nell’arco del breve tempo e favorendo al cliente finale un risparmio di denaro sulla bolletta.
Resumo:
This study is based on a former student’s work, aimed at examining the influence of handedness on conference interpreting. In simultaneous interpreting (IS) both cerebral hemispheres participate in the decoding of the incoming message and in the activation of the motor functions for the production of the output signal. In right-handers language functions are mainly located in the left hemisphere, while left-handers have a more symmetrical representation of language functions. Given that with the development of interpreting skills and a long work experience the interpreters’ brain becomes less lateralized for language functions, in an initial phase left-handers may be «neurobiologically better suited for interpreting tasks» (Gran and Fabbro 1988: 37). To test this hypothesis, 9 students (5 right-handers and 4 left-handers) participated in a dual test of simultaneous and consecutive interpretation (CI) from English into Italian. The subjects were asked to interpret one text with their preferred ear and the other with the non-preferred one, since according neuropsychology aural symmetry reflects cerebral symmetry. The aim of this study was to analyze:1) the differences between the number of errors in consecutive and simultaneous interpretation with the preferred and non-preferred ear; 2) the differences in performance (in terms of number of errors) between right-handed and left-handed, both with the preferred and non-preferred ear; 3) the most frequent types of errors in right and left-handers; 4) the influence of the degree of handedness on interpreting quality. The students’ performances were analyzed in terms of errors of meaning, errors of numbers, omissions of text, omissions of numbers, inaccuracies, errors of nexus, and unfinished sentences. The results showed that: 1) in SI subjects committed fewer errors interpreting with the preferred ear, whereas in CI a slight advantage of the non-preferred ear was observed. Moreover, in CI, right-handers committed fewer mistakes with the non-preferred ear than with the preferred one. 2) The total performance of left-handers proved to be better than that of right-handers. 3) In SI left-handers committed fewer errors of meaning and fewer errors of number than right-handers, whereas in CI left-handers committed fewer errors of meaning and more errors of number than right-handers 4) As the degree of left-handedness increases, the number of errors committed also increases. Moreover, there is a statistically significant left-ear advantage for right-handers and a right-ear one for left-handers. Finally, those who interpreted with their right ear committed fewer errors of number than those who have used their left ear or both ears.
Resumo:
Nella presente tesi, di argomento astrofisico, sono esaminati gli ammassi di galassie (galaxy clusters), ovvero gli oggetti virializzati più grandi dell’Universo. Attraverso una introduttiva analisi morfologica vengono descritte le proprietà di luminosità in banda X e radio dovute alle galassie che li compongono ed al caldo gas intergalattico (ICM IntraCluster Medium) tra queste interposto. In particolare è presa in esame l’emissione radio diffusa di natura non termica di sottostrutture del gas, note con il nome di Aloni, relitti e mini-aloni. Nei capitoli II e III l’attenzione si concentra sul non facile problema della determinazione della massa di un ammasso, proprietà che costituisce il principale oggetto di studio del presente lavoro, passando in rassegna e descrivendo i metodi più utilizzati: analisi dinamica delle galassie (equazione di Jeans ed equazione del viriale), osservazioni in banda X dell’ICM, weak lensing (WL), strong lensing (SL) ed infine WL e SL accoppiati. Una analisi critica ed un confronto tra questi metodi è sviluppata nel capitolo IV, prendendo in considerazione l’ammasso RCS2327. Il conclusivo capitolo V racchiude e collega gli argomenti delle sezioni precedenti cercando una possibile correlazione tra le proprietà emissive non termiche (in banda radio) e le masse di un campione di 28 ammassi, determinate mediante tecnica di weak lensing e strong lensing accoppiate.
Resumo:
L’avvento delle tecniche di imaging volumetrico, quali la CT (Computed Tomography) e la MRI (Magnetic Resonance Investigation), ha portato ad un crescente interesse verso applicazioni di guida chirurgica che utilizzano processi di allineamento delle immagini diagnostiche provenienti da diverse modalità e di tecniche che ne permettono la visualizzazione in sala operatoria, in modo da fornire al chirurgo il maggior numero di informazioni cliniche possibili durante un intervento. Il crescente interesse verso questo tipo di applicazioni è dovuto anche allo sviluppo di dispositivi di imaging intra-operatorio quali archi a C-mobili radiologici, PC ad alte prestazioni e convertitori A/D 3D con precisione clinicamente accettabile. Questi ultimi due hanno conseguentemente portato a sviluppare ed implementare software dedicati alla pianificazione di un intervento chirurgico, permettendo quindi di elaborare digitalmente le immagini diagnostiche e ricostruire un modello che rappresenta l’effettiva anatomia del paziente. Questo processo nel suo complesso ha portato allo sviluppo di quelli che oggi vengono chiamati sistemi di navigazione chirurgica, abbreviati talvolta in IGSS (Imaging-Guided Surgery Systems), sistemi ovvero che permettono di utilizzare immagini pre-operatorie come guida durante la pratica chirurgica, caratterizzando quindi nuovi metodi di approccio alla chirurgia, le IGS (Image-Guided Surgery) appunto.
Resumo:
L'esperimento LHCb è stato progettato per eseguire misure di altissima precisione nel settore della fisica dei quark pesanti al Large Hadron Collidere del CERN. Sfruttando l'alta sezione d'urto di produzione di charm nelle interazioni protone-protone ad LHC e utilizzando la statistica raccolta durante il RUN-1, corrispondente ad una luminosità integrata di 3 fb{-1}, l'esperimento LHCb ha realizzato le misure più precise al mondo in questo settore. In particolare i decadimenti del mesone D0 in due corpi carichi senza leptoni nello stato finale hanno permesso di realizzare misure di violazione di CP} che raggiungono precisioni inferiori al 0.1 %. Da pochi mesi LHCb ha iniziato la seconda fase di presa dati, chiamata RUN-2, raccogliendo dati dalle interazioni protone-protone ad una energia nel centro di massa di sqrt{s}=13 TeV, superiore a quella del RUN-1. Le misure attuali di violazione di CP nel settore del charm, sono consistenti con l'ipotesi di non violazione. Il Modello Standard, pur con grandi incertezze teoriche, prevede una violazione di CP molto piccola, pertanto per verificare o meno l'esistenza di taleviolazione, sarà necessario sfruttare al massimo la statistica che verrà raccolta durante il RUN-2, ottimizzando gli algoritmi di selezione dei canali di interesse. In questa tesi verrà presentata uno studio preliminare che ha lo scopo di ottimizzare, mediante una tecnica di analisi multivariata, la selezione dei decadimenti D^*pm-> D0(K+K-)pi_s^pm e D^*pm}-> D0(pi+pi-)pi_s^pm} in previsione della prossima presa dati.
Resumo:
In questo lavoro viene presentato l'utilizzo di simulatori quantistici nello studio di sistemi a molte componenti. Dall'idea iniziale di Feynman della intersimulazione tra sistemi quantistici in questi anni si è sempre più sviluppata la tecnica sperimentale necessaria a creare sistemi di atomi in reticoli ottici ben controllati, nei quali riprodurre il comportamento di sistemi di natura diversa, ottenendo risultati promettenti nell'indagine di situazioni non trattabili analiticamente o numericamente. Tra questi, la conduzione di elettroni in materiali disordinati è ancora un problema aperto. In questa tesi nello specifico sono trattati i modelli di Anderson e di André-Aubry, i quali prevedono una transizione da stati estesi a localizzati in presenza di disordine nel materiale. I due modelli sono stati investigati numericamente su reticoli monodimensionali e i risultati confrontati con una realizzazione sperimentale realizzata con atomi freddi.
Resumo:
La Digital Volume Correlation (DVC) è una tecnica di misura a tutto campo, non invasiva, che permette di misurare spostamenti e deformazioni all’interno della struttura ossea in esame. Mediante la comparazione d’immagini con provino scarico e con provino carico, ottenute attraverso sistemi di tomografia computerizzata, si può ottenere la mappa degli spostamenti per ogni direzione e la mappa di deformazione per ogni componente di deformazione. L’obiettivo di questo lavoro di tesi è la validazione della DVC, attraverso la determinazione dell’errore sistematico (accuratezza) e dell’errore casuale (precisione), in modo da poter valutare il livello di affidabilità della strumentazione. La valutazione si effettua su provini di vertebre di maiale, aumentate e non, sia a livello d’organo, sia a livello di tessuto. The Digital Volume Correlation (DVC) is a full field and contact less measurement technique that allowed estimating displacement and strain inside bone specimen. Images of the unloaded and loaded specimen were obtained from micro-CT and compared in order to obtain the displacement map and, differentiating, the strain map. The aim of this work is the validation of the approach, estimating the lack of accuracy (systematic error) and the lack of precision (random error) on different kinds of porcine vertebra, augmented and not, analysing the specimen on tissue level and on organ level.