468 resultados para traduzione_assistita tecnica microlingua
Resumo:
Studio della caratterizzazione micromeccanica di provini in alluminio 6082 T6 saldati con la tecnica della rotary friction welding, tecnica innovativa nell’ambito delle tecnologie di giunzione solida, che sfrutta il principio della saldatura per attrito. Dopo un'introduzione teorica sulle principali tematiche affrontate e sui principali sistemi di misura usati, verranno effettuate micrografie dei giunti e prove di microdurezza sugli stessi. Si termina riportando i grafici delle microdurezze trovate, in modo da poter confrontare i risultati ottenuti con le caratteristiche del materiale base. Da questi si osserva che: nonostante la qualità accettabile dei giunti, le elevate temperature raggiunte durante la saldatura hanno alterato il trattamento termico del materiale base, che da T6 assume caratteristiche più simili a un T4. In altre parole il materiale saldato presenta caratteristiche micromeccaniche inferiori a quelle nominalmente assegnabili al materiale base.
Resumo:
Una delle aree di maggiore innovazione nella diagnostica per immagini è rappresentata dalla possibilità di fondere le scansioni PET e TC in un sistema di acquisizione ibrido che realizza entrambi gli studi in un'unica seduta. Questa tecnica abbina infatti la capacità di raccogliere le immagini ad alta definizione della TC che può essere eseguita anche con il mezzo di contrasto tradizionale, con informazioni metaboliche estremamente dettagliate raccolte dalla PET, unificandole in un sistema di immagini ibride. Attualmente la PET ha un preminente utilizzo in campo oncologico, tanto che circa l’80% degli esami effettuati è mirato a monitorare la risposta dei pazienti a trattamenti contro il cancro e a discriminare o caratterizzare lesioni dubbie evidenziate in studi morfologici effettuati con CT e MRI. Oltre all’ambito delle patologie neoplastiche, le tecniche di imaging PET/CT hanno dimostrato una importanza rilevante anche in applicazioni di cardiologia e neurologia.
Resumo:
L’idea da cui nasce questa tesi è quella di introdurre in Blender un Add-on in linguaggio Python che permetta di applicare alcune deformazioni di tipo surface-based a mesh poligonali. Questa tipologia di deformazioni rappresentano l’alternativa alle deformazioni di mesh poligonali tramite rigging ( cioè l’aggiunta di uno scheletro per controllare e per animare la mesh) e caging (cioè l’utilizzo di una struttura di controllo di tipo reticolare che propaga la sua deformazione su un oggetto in essa immerso), che di solito sono le prescelte in computer animation e in modellazione. Entrambe le deformazioni indicate sono già estremamente radicate in Blender, prova ne è il fatto che esiste più di un modificatore che le implementa, già integrato in codice nativo. Si introduce inizialmente la tecnica di deformazione di mesh poligonali tramite elasticità discreta, che è stata realizzata, quindi, presenteremo diverse metodologie di deformazione. Illustreremo poi come modellare, creare ed editare delle mesh in Blender. Non ci soffermeremo su dettagli puramente dettati dall’interfaccia utente, cercheremo invece di addentrarci nei concetti e nelle strutture teoriche, allo scopo di avere le basi logiche per definire una Add-on che risulti veramente efficace e utile all’interno del sistema di modellazione. Approfondiremo la struttura di due modificatori chiave per la deformazioni di mesh : Lattice Modifier e Mesh Deform Modifier che implementano una metodologia di tipo space-based. Infine ci concentreremo sulla parte di scripting Python in Blender. Daremo un’idea delle strutture dati, dei metodi e delle funzioni da utilizzare per interagire con l’ambiente circostante, con i singoli oggetti ed in particolare con le Mesh e daremo un esempio di script Python. Andremo infine a descrivere l’implementazione della deformazione elastica mediante add-on Python in Blender.
Resumo:
Questo elaborato illustra il problema della determinazione di una tecnica per rendere la misura della cardiac output il più possibile accurata, economica e poco invasiva. A tale scopo è preso in esame un nuovo metodo basato sul modello WindKessel per la stima continua battito a battito di CO e TPR, partendo dall’analisi delle forme d’onda della pressione arteriosa periferica. Tale metodo ideato nel 2007 da T.A. Parlikar considera informazioni pressorie intrabattito e interbattito, in modo da ottenere stime soddisfacenti, che migliorano ulteriormente assumendo una complianza pressione-dipendente. Applicando il metodo a un data set di animali suini, contenente misurazioni della CO di riferimento su base battito-battito, si riscontra un errore di stima complessivo pari a un RMNSE medio variabile tra l’11% ed il 13%, inferiore alla soglia del 15% ritenuta accettabile in letteratura per scopi clinici. Confrontando questi risultati con quelli ottenuti attraverso l’applicazione di altri metodi riportati in letteratura allo stesso set di dati, è stato dimostrato che il metodo risulta tra i migliori. Le CO e TPR stimate, dopo le infusioni farmacologiche endovenose effettuate sugli animali, corrispondono abbastanza fedelmente alle risposte emodinamiche attese. Successivamente viene considerato l’obbiettivo di verificare l’applicabilità della procedura matematica sulla quale si fonda il metodo. Si implementa il procedimento e si applica il metodo su un data set simulato su base battito-battito, comprendente dati relativi a varie condizioni di funzionamento fisiologiche. Le stime di CO e TPR ottenute in questa fase inseguono discretamente le variazioni delle variabili emodinamiche simulate, dimostrandosi migliori nel caso di calibrazione con complianza pressione-dipendente.
Resumo:
Obiettivo: dimostrare l'equivalenza tra la sensibilità del Verde Indocianina e quella del Tecnezio radioattivo nella detezione del linfonodo sentinella(LS), nei pazienti affetti da carcinoma mammario allo stadio iniziale. Metodi: linfoscintigrafia con Tc99m-marcato, attraverso Gammacamera e con Verde Indocianina, attraverso Photo Dinamic Eye, per la detezione del LS. Utilizzo della sonda Gamma Probe per la discriminazione dei linfonodi radioattivi da quelli non radioattivi. Analisi statistica dei dati. Risultati: sono stati studiati 200 pazienti per un totale di 387 linfonodi asportati; la sensibilità del ICG risulta essere del 98,09%. Studi statistici hanno confermato la non significatività dei parametri di BMI, taglia mammaria, dose iniettata, tempo iniezione-incisione per il rintracciamento del numero corretto di linfonodi (al massimo 2). Conclusioni: l'elevata sensibilità del ICG permette di affermare l'equivalenza tra la capacità di detezione dei LS con le due sostanze(Tc e ICG). A livello operativo la tecnica con ICG facilita l'asportazione del LS. Data la non significatività della dose di ICG iniettata per la detezione del numero corretto di linfonodi, clinicamente conviene iniettare sempre la dose minima di farmaco.
Resumo:
Lavoro di tesi che mette a confronto una tecnica affermata nel campo della diagnostica cardiaca, come la coronarografia e il cateterismo cardiaco, con tecniche di ultima generazione quali cardio-TC e cardio-RM.
Resumo:
La radioterapia guidata da immagini (IGRT), grazie alle ripetute verifiche della posizione del paziente e della localizzazione del volume bersaglio, si è recentemente affermata come nuovo paradigma nella radioterapia, avendo migliorato radicalmente l’accuratezza nella somministrazione di dose a scopo terapeutico. Una promettente tecnica nel campo dell’IGRT è rappresentata dalla tomografia computerizzata a fascio conico (CBCT). La CBCT a kilovoltaggio, consente di fornire un’accurata mappatura tridimensionale dell’anatomia del paziente, in fase di pianificazione del trattamento e a ogni frazione del medisimo. Tuttavia, la dose da imaging attribuibile alle ripetute scansioni è diventata, negli ultimi anni, oggetto di una crescente preoccupazione nel contesto clinico. Lo scopo di questo lavoro è di valutare quantitativamente la dose addizionale somministrata da CBCT a kilovoltaggio, con riferimento a tre tipici protocolli di scansione per Varian OnBoard Imaging Systems (OBI, Palo Alto, California). A questo scopo sono state condotte simulazioni con codici Monte Carlo per il calcolo della dose, utilizzando il pacchetto gCTD, sviluppato sull’architettura della scheda grafica. L’utilizzo della GPU per sistemi server di calcolo ha permesso di raggiungere alte efficienze computazionali, accelerando le simulazioni Monte Carlo fino a raggiungere tempi di calcolo di ~1 min per un caso tipico. Inizialmente sono state condotte misure sperimentali di dose su un fantoccio d’acqua. I parametri necessari per la modellazione della sorgente di raggi X nel codice gCTD sono stati ottenuti attraverso un processo di validazione del codice al fine di accordare i valori di dose simulati in acqua con le misure nel fantoccio. Lo studio si concentra su cinquanta pazienti sottoposti a cicli di radioterapia a intensità modulata (IMRT). Venticinque pazienti con tumore al cervello sono utilizzati per studiare la dose nel protocollo standard-dose head e venticinque pazienti con tumore alla prostata sono selezionati per studiare la dose nei protocolli pelvis e pelvis spotlight. La dose media a ogni organo è calcolata. La dose media al 2% dei voxels con i valori più alti di dose è inoltre computata per ogni organo, al fine di caratterizzare l’omogeneità spaziale della distribuzione.
Resumo:
La Correlazione digitale d’immagini (digital image correlation, DIC) è una tecnica di misura delle deformazioni e degli spostamenti, relativamente nuova, che permette di fare misure a tutto campo di tipo non invasivo. In questa tesi di Laurea Magistrale in Ingegneria Meccanica si è proceduto alla sua ottimizzazione e validazione per un’applicazione di tipo biomeccanico (distribuzione di deformazioni in segmenti ossei). Sono stati indagati i parametri di post-processo, di pre-acquisizione e di preparazione del provino. Per la validazione dello strumento sono stati confrontati i risultati ottenuti da provini di forma semplice con quelli teorici, così da avere una stima di quanto il dato misurato si discosti da quello reale. Infine, quanto appreso prima, è stato applicato a una vertebra umana, oltrepassando il limite, finora presente, di misure puntuali con estensimentri.
Resumo:
La Tomografia Computerizzata perfusionale (TCp) è una tecnica che permette di effettuare studi funzionali di natura emodinamica dei tessuti ispezionati, misurandone la perfusione attraverso l’analisi temporale della diffusione del mezzo di contrasto. Ricerche recenti indicano come alcuni parametri (ad esempio, il blood flow) della perfusione ematica dell’organo interessato rappresentino un valido strumento per la valutazione dell’efficacia delle terapie anti-angiogenetiche. Valutazione che, potendo avvenire già in fase precoce, senza attendere i più tardivi cambiamenti dimensionali, consente un eventuale adeguamento, altrettanto precoce, della terapia in caso di risultati parziali o di insuccesso. Tuttavia diversi problemi, tra cui la difficoltà ad ottenere misure riproducibili, dovuta alla estrema variabilità delle cause di errore, costituiscono un ostacolo alla standardizzazione e, conseguentemente, alla trasposizione in clinica della TCp. Il lavoro di tesi ha avuto come obiettivo quello di identificare le principali sorgenti di errore in tutto il processo di preparazione dell’esame, generazione e archiviazione dei dati TCp al fine di fornire a IRST-IRCCS un protocollo perfusionale che consente di tenere sotto controllo, innanzitutto, tutti i parametri relativi alla somministrazione del mezzo di contrasto e alla fase di acquisizione delle immagini. Successivamente, è stato creato un catalogo di esami perfusionali, facilmente consultabile sia dal personale medico sia da quello ingegneristico. Infine, è stato fornito il supporto, sia ai medici sia agli ingegneri, per la messa a punto di un metodo di validazione visiva dei risultati ottenuti. Contestualmente, uno dei principali risultati del lavoro di Tesi è stato quello di creare, all’interno di IRST-IRCCS, una figura che funga da “collettore” fra i radiologi e gli ingegneri dell’Università di Bologna. Proprio in questo modo è stato possibile standardizzare le procedure di esecuzione degli esami perfusionali e implementare, attraverso l’interfacciamento tra il personale medico ed i ricercatori dell’Università, i protocolli per la gestione ed il trattamento dei dati acquisiti.
Resumo:
La velocità di cambiamento che caratterizza il mercato ha posto l'attenzione di molte imprese alla Business Analysis. La raccolta, la gestione e l'analisi dei dati sta portando numerosi benefici in termini di efficienza e vantaggio competitivo. Questo è reso possibile dal supporto reale dei dati alla strategia aziendale. In questa tesi si propone un'applicazione della Business Analytics nell'ambito delle risorse umane. La valorizzazione del Capitale Intellettuale è fondamentale per il miglioramento della competitività dell'impresa, favorendo così la crescita e lo sviluppo dell'azienda. Le conoscenze e le competenze possono incidere sulla produttività, sulla capacità innovativa, sulle strategie e sulla propria reattività a comprendere le risorse e le potenzialità a disposizione e portano ad un aumento del vantaggio competitivo. Tramite la Social Network Analysis si possono studiare le relazioni aziendali per conoscere diversi aspetti della comunicazione interna nell'impresa. Uno di questi è il knowledge sharing, ovvero la condivisione della conoscenza e delle informazioni all'interno dell'organizzazione, tema di interesse nella letteratura per via delle potenzialità di crescita che derivano dal buon utilizzo di questa tecnica. L'analisi si è concentrata sulla mappatura e sullo studio del flusso di condivisione di due delle principali componenti della condivisione di conoscenza: sharing best prectices e sharing mistakes, nel caso specifico si è focalizzato lo studio sulla condivisione di miglioramenti di processo e di problematiche o errori. È stata posta una particolare attenzione anche alle relazioni informali all'interno dell'azienda, con l'obiettivo di individuare la correlazione tra i rapporti extra-professionali nel luogo di lavoro e la condivisione di informazioni e opportunità in un'impresa. L'analisi delle dinamiche comunicative e l'individuazione degli attori più centrali del flusso informativo, permettono di comprendere le opportunità di crescita e sviluppo della rete di condivisione. La valutazione delle relazioni e l’individuazione degli attori e delle connessioni chiave fornisce un quadro dettagliato della situazione all'interno dell'azienda.
Resumo:
Il periodo economico attuale è caratterizzato da una crisi che affligge numerose imprese non solo a livello nazionale, ma anche a livello mondiale. Tra le innumerevoli ragioni che hanno portato allo sviluppo di questa situazione troviamo quelle legate al contesto generale e competitivo, e quelle strategiche ed organizzative legate all’errata gestione aziendale. Le aziende devono sapersi rinnovare rimanendo concorrenziali e di alta qualità. È proprio in situazioni come queste che occorre saper considerare tutte le variabili in gioco prima di affrontare nuovi investimenti e, addirittura, i rifornimenti di materiale. La Nuova Bassani s.r.l. è sempre stata un’azienda dinamica e, nei suoi trent’anni di storia, ha saputo interpretare al meglio le esigenze del mercato mantenendosi sana ed affidabile. Adesso è orientata verso il revamping di uno dei suoi magazzini automatici per ovviare i tempi morti tra un’operazione e l’altra, e per velocizzare la preparazione degli ordini, per i clienti che ritirano personalmente il materiale richiesto. Oggi più che mai c’è la necessità non solo di soddisfare le richieste sempre più esigenti, ma anche quella di non tenere a magazzino del materiale che potrebbe risultare invenduto per anni perché “passato di moda”. La Nuova Bassani s.r.l. commercia acciaio ed è facilmente comprensibile quanto sia facile che qualche misura o materiale non venga più richiesto dal mercato perché sostituito da nuove tipologie, magari a lavorabilità migliorata. La tesi di seguito sviluppata ha quindi come scopo quello di: • Analizzare lo storico del venduto per approfondire la conoscenza dei materiali trattati e riscontrare quali sono le punte di diamante su cui puntare maggiormente; • Effettuare un’analisi tecnica per accertare quali materiali tenere in magazzino e in quale quantità, basandosi sui layout delle strutture esistenti; • Studiare il funzionamento del magazzino automatico obsoleto ed eventuali difetti tecnici per determinare soluzioni che lo possano migliorare; • Valutare l’investimento del revamping del magazzino per ragguagliare l’azienda sui tempi di recupero di tale investimento. La tesi sarà divisa in due parti fondamentali che riguardano una l’ottimizzazione delle strutture esistenti, l’altra l’aggiornamento di una delle strutture più importanti.
Resumo:
Il mantenimento delle condizioni termoigrometriche ottimali all’interno di edifici mediante l’uso di unità di trattamento dell'aria comporta generalmente consumi energetici notevoli. Ciò che determina il livello entalpico di immissione dell’aria è il fabbisogno energetico dell’involucro edilizio: la geometria, i materiali di costruzione, unitamente ai carichi interni, alle infiltrazioni d’aria indesiderate, e ovviamente, alla zona climatica in cui l’edificio sorge, giocano un ruolo fondamentale nel computo dei consumi energetici. Nella pratica, esistono diverse soluzioni tecniche volte alla riduzione dei consumi e quindi dei costi di gestione di queste tipologie di impianto. Tra queste, occorre senz’altro ricordare l’inserimento del “cappotto termico” e delle cosiddette facciate ventilate. Ciascuna di queste due soluzioni interviene direttamente sull’involucro edilizio, riducendone il fabbisogno energetico. Si trovano poi soluzioni che non interessano direttamente l’involucro, ma che sono inserite all’interno dell’impianto in modo da ridurne i consumi. E’ il caso dei recuperatori di calore, scambiatori di calore che utilizzano l’aria prelevata dal locale condizionato per preriscaldare o preraffreddare l’aria esterna. Lo scopo di questo elaborato è quello di analizzare le prestazioni energetiche di un impianto di condizionamento che utilizzi, combinandole, due di queste soluzioni: l’intercapedine ventilata, con convezione di tipo forzata, e il recuperatore di calore. In particolare, si è fatto in modo che la facciata ventilata sia una sorta di componente dell’impianto, che risulta quindi “integrato nell’involucro”: l’idea è quella di studiare l’effetto della frazione di portata elaborata dall’impianto che viene inviata alla parete sui consumi energetici. Si è posta l’attenzione principalmente sulla stagione estiva, nella quale l’impianto studiato fa anche uso della tecnica del cosiddetto mist cooling: umidificando la portata d’aria di ripresa sia a monte che all’interno dell’intercapedine ventilata, si abbatte la temperatura dell’aria, con un conseguente abbattimento della temperatura di parete e con un notevole miglioramento delle prestazioni del recuperatore di calore.
Resumo:
Lo scopo di questo lavoro di tesi è quello di indagare la fluidodinamica all’interna di un modello di una camera di una filtropressa. L’analisi del comportamento fluidodinamico all’interno delle filtropresse viene svolta al fine di comprendere meglio alcune problematiche relative alla gestione del processo. In particolare si è tentato di individuare le cause che inducono: 1.Rottura prematura delle tele, in particolar modo nelle camere iniziali; 2.Formazione di pannelli disomogenei che comporta complicazioni nei successivi processi (lavaggio, essiccamento, etc.). Tale studio è consistito nella determinazione e nell’analisi del campo di moto di una fase liquida all’interno di suddetta camera. I campi di moto sono stati acquisiti tramite la tecnica PIV (Particle Image Velocimetry).
Resumo:
Il seguente lavoro di tesi è stato svolto in Hera S.p.A. Il caso di studio riguarda il passaggio dalla bolletta cartacea alla bolletta elettronica. In particolare, sono stati messi a confronto i due modelli di bollettazione attraverso l'analisi LCA. In seguito sono stati calcolati i risparmi energetici conseguiti, misurati in tep, attraverso i quali è stato possibile creare una proposta di scheda tecnica per la quantificazione dei risparmi di energia primaria.
Resumo:
Lo scopo di questo lavoro di tesi consiste nel valutare l’efficacia di inibizione delle HDAC e la selettività per le cellule tumorali di nuove molecole basate su coniugati poliamminici (PC1, PC2, PC3, PC4, PC5). I modelli sperimentali utilizzati saranno una linea cellulare tumorale di glioblastoma umano (U87), paragonata a una linea cellulare sana di fibroblasti fetali umani (IMR90). Il progetto nasce dalla collaborazione con la Prof.ssa Anna Minarini del Dipartimento di Farmacia e BioTecnologie di Bologna e con il Dott. Andrea Milelli del Dipartimento di Scienze per la Qualità della Vita di Rimini che hanno progettato e sintetizzato i composti poliamminici utilizzati negli esperimenti condotti nel laboratorio di Ingegneria Cellulare e Molecolare “S. Cavalcanti” a Cesena. Gli obiettivi del progetto consistono nel valutare i potenziali vantaggi che sembrano offrire le poliammine se coniugate a molecole con specifiche funzioni antitumorali, quali l’acido idrossamico e il gruppo intercalante il DNA, naftalene-diimide. L’aggiunta della coda poliamminica al composto, infatti, permetterebbe alla molecola risultante di sfruttare il sistema di trasporto delle poliammine, tipicamente sovraespresso o iperattivo nelle cellule neoplastiche, favorendo così l’ingresso in cellula del farmaco e conferendogli selettività per le cellule tumorali. Inoltre, l’affinità elettrostatica che intercorre tra la coda policationica poliamminica e il DNA, carico negativamente, direzionerebbe con maggior efficacia l’intera molecola, compresa la parte intercalante e l’acido idrossamico (HDACi), verso il loro bersaglio, la doppia elica dell’acido nucleico e le HDAC. Gli effetti dei PC valutati in questo lavoro di tesi comprendono l’influenza dei farmaci sulla vitalità cellulare e l’efficacia di inibizione delle HDAC. Si effettueranno test di crescita cellulare in seguito ai trattamenti farmacologici per confrontare i diversi composti poliamminici, individuare quelli con maggior effetto citotossico e stabilire se il tipo di trattamento risulti idoneo per il proseguimento dell’indagine. Il grado di inibizione delle HDAC, relativo ai diversi farmaci, verrà valutato indirettamente mediante la tecnica del Western Blotting quantificando il livello di iperacetilazione istonica globale indotta. I vantaggi che queste nuove molecole potenzialmente possiedono e che andranno verificati con ulteriori studi, inducono ad attribuire loro un grande potenziale per la terapia antitumorale, come induttori dell’apoptosi e/o riprogrammazione dell’assetto epigenetico, risultante nella riattivazione di geni oncosoppressori silenziati nelle cellule neoplastiche. L’azione antitumorale di queste molecole potrà essere più efficace se combinata con altri farmaci, quali chemioterapici standard o demetilanti del DNA. Inoltre la variazione della coda poliamminica potrà essere utile per lo sviluppo di inibitori specifici per le diverse isoforme delle HDAC. La selettività per le cellule tumorali e l’affinità per il DNA di questi nuovi composti potrebbe infine limitare gli eventuali effetti collaterali in clinica.