1000 resultados para Metodo de intervencao


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le protesi biomimetiche hanno subito negli anni innumerevoli cambiamenti dovuti al miglioramento tecnologico, che ha portato allo sviluppo di nuovi materiali sempre più biomimetici. L’utilizzo di protesi in idrossiapatite personalizzate rappresenta la scelta migliore per gli interventi di cranioplastica ricostruttiva. Ad oggi la produzione di questo dispositivo richiede lunghe fasi di lavorazione. Risulta pertanto di grande interesse trovare soluzioni innovative che permettano l’ottimizzazione dei tempi garantendo al contempo l’efficacia clinica. L’obiettivo di questo elaborato è introdurre l’utilizzo delle microonde per essiccare il semilavorato nelle fasi iniziali di produzione. Bisogna comprendere quali siano i parametri in grado di influenzare le proprietà finali del dispositivo e come modularli per guidare questi attributi verso il punto di ottimo. Si è deciso di utilizzare la tecnica del Design of Experiments a fattoriale completo come metodo per ottimizzare il processo produttivo. I fattori scelti sono stati la potenza del forno a microonde, il peso della cellulosa secca, il range di peso della matrice di cellulosa e la percentuale di essiccamento del semilavorato. Al termine dello studio è stato possibile capire come e quanto questi fattori abbiano influenzato la severità dei difetti, la porosità e le proprietà meccaniche (tensione ultima di compressione e lavoro a rottura) del prodotto finito. Lo studio ha mostrato che per garantire un basso numero di difetti associato ad una porosità in linea con le specifiche di prodotto è indicato impostare la potenza del forno a microonde sul valore di 250W e di utilizzare questo processo nella fase iniziale per essiccare al 20% i semilavorati. La conferma è stata fornita da una sperimentazione eseguita su protesi allineate ad un caso clinico reale utilizzando questo nuovo processo permettendo di ottenere un ottimo risultato in termini di qualità del prodotto finito con una bassa percentuale di scarto per difetti e porosità.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’imaging ad ultrasuoni è una tecnica di indagine utilizzata comunemente per molte applicazioni diagnostiche e terapeutiche. La tecnica ha numerosi vantaggi: non è invasiva, fornisce immagini in tempo reale e l’equipaggiamento necessario è facilmente trasportabile. Le immagini ottenute con questa tecnica hanno tuttavia basso rapporto segnale rumore a causa del basso contrasto e del rumore caratteristico delle immagini ad ultrasuoni, detto speckle noise. Una corretta segmentazione delle strutture anatomiche nelle immagini ad ultrasuoni è di fondamentale importanza in molte applicazioni mediche . Nella pratica clinica l’identificazione delle strutture anatomiche è in molti casi ancora ottenuta tramite tracciamento manuale dei contorni. Questo processo richiede molto tempo e produce risultati scarsamente riproducibili e legati all’esperienza del clinico che effettua l’operazione. In ambito cardiaco l’indagine ecocardiografica è alla base dello studio della morfologia e della funzione del miocardio. I sistemi ecocardiografici in grado di acquisire in tempo reale un dato volumetrico, da pochi anni disponibili per le applicazioni cliniche, hanno dimostrato la loro superiorità rispetto all’ecocardiografia bidimensionale e vengono considerati dalla comunità medica e scientifica, la tecnica di acquisizione che nel futuro prossimo sostituirà la risonanza magnetica cardiaca. Al fine di sfruttare appieno l’informazione volumetrica contenuta in questi dati, negli ultimi anni sono stati sviluppati numerosi metodi di segmentazione automatici o semiautomatici tesi alla valutazione della volumetria del ventricolo sinistro. La presente tesi descrive il progetto, lo sviluppo e la validazione di un metodo di segmentazione ventricolare quasi automatico 3D, ottenuto integrando la teoria dei modelli level-set e la teoria del segnale monogenico. Questo approccio permette di superare i limiti dovuti alla scarsa qualità delle immagini grazie alla sostituzione dell’informazione di intensità con l’informazione di fase, che contiene tutta l’informazione strutturale del segnale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Scopo di questa tesi è la trattazione del Principio dei lavori virtuali, il quale si inserisce nel contesto della meccanica classica dei sistemi di punti materiali. Tale principio viene utilizzato per affrontare problemi di statica quali l'equilibrio di un sistema meccanico, ma risulta centrale anche nel contesto più generale della dinamica. Per quanto riguarda i problemi di statica, il principio dei lavori virtuali è un metodo alternativo alle equazioni cardinali, che rappresentano una condizione necessaria e sufficiente per l'equilibrio dei soli corpi rigidi, quindi si occupano di un contesto più limitato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il BIM (Building Information Modeling ) è un processo coordinato per agevolare l’integrazione delle informazioni pertinenti alle varie fasi di progettazione dell’opera edilizia. La rappresentazione digitale di un edificio, completa di tutte le sue parti ed informazioni sempre aggiornate, affidabili ed accessibili, aiuta il confronto decisionale, la produzione di elaborati, la stima dei costi e tanti altri aspetti del processo edilizio che vengono così ad essere trattati in maniera più efficiente, immediata e con meno sprechi rispetto a molti approcci tradizionali ancora in uso. Con queste premesse la tesi ha voluto indagare potenzialità e criticità di strumenti progettuali avanzati per giungere ad una costruzione efficace e sostenibile. A questo scopo Revit di Autodesk si è dimostrato un software che permette di avere in un unico spazio di lavoro tutti i dati pertinenti alle figure professionali che intervengono durante il processo edilizio. Nel modello BIM realizzato per progettare realisticamente una villetta monofamiliare localizzata a Mezzojuso, in provincia di Palermo, sono stati esaminati molteplici aspetti: dal modello fisico, alla visualizzazione grafica 2D e 3D, alla modellazione parametrica di un modello concettuale energetico che coinvolge analisi di comfort termico ed igrometrico, ad un modello dei venti (per arrivare ad un design energetico ottimale). Il metodo di progetto è stato applicato facendo largo uso di elementi parametrici non standard nei modelli 3D e di altri prodotti realmente esistenti nel mercato italiano. Il risultato finale è stato quello di giungere ad una valutazione delle geometrie più idonee per il controllo degli spazi rispetto alla normativa locale, allo studio di più tipologie di pacchetti murari per risolvere i problemi di raffrescamento estivo e isolamento invernale, alla realizzazione di un computo metrico di massima: sono stati solo questi alcuni degli aspetti considerati per approcciare la tematica da un più ampio punto di vista multidisciplinare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il caso studio affrontato nella tesi è il complesso residenziale Pilastro, costruito tra gli anni 1962 e 1985 a Bologna. Collocato nella parte nord-est della città, all’interno del quartiere San Donato, il quartiere si presenta come una delle periferie più adatte ad ospitare i nuovi progetti di sviluppo urbano, in virtù della sua posizione strategica rispetto ai diversi poli e alla rete infrastrutturale principale. Questo studio consiste in una serie di analisi, effettuate al fine di giungere a trattare gli aspetti progettuali, che rispondono a una serie di problematiche riscontrate nella parte conosciuta come “Primo Impianto”. Le criticità affrontate sono: - Fenomeno di Canyon Urbano dovuto al rapporto tra la morfologia urbana e il microclima; - Limiti nella fruibilità degli spazi esterni (outdoor), a causa della presenza di spazi non caratterizzati, dotati di uno scarso livello di comfort termico durante il periodo estivo; - Problemi riguardo l’aspetto viabilistico e le sezioni stradali; - Bassa prestazione energetica correlata alla vetustà degli edifici; - Basso livello di comfort interno (indoor) degli edifici. La Tesi ha come obiettivo la definizione di diverse strategie progettuali che tengano conto delle condizioni climatiche relative al benessere termico come criterio per la riqualificazione degli spazi esterni e degli edifici esistenti. Quest’ultima terrà altresì conto della prestazione energetica dei fabbricati. Un aspetto complementare è quello del ragionamento sull’incidenza della progettazione degli spazi esterni (outdoor) sugli aspetti relativi al benessere negli spazi interni (indoor). Metodo L’approccio seguito nel trattare le problematiche ha come punto di partenza lo studio degli spazi esterni, che continua anche al livello del costruito. Attraverso diverse analisi a livello urbanistico, sono stati indagati una serie di aspetti come la morfologia urbana, i servizi, gli spazi aperti, la popolazione e la mobilità, etc. Il comparto studio, collocato nella parte nord-est del Primo Impianto in Via Lodovico Frati, è composto da edifici residenziali in linea e lo spazio “in between” che si affaccia alla strada. Al fine di considerare le condizioni climatiche e la loro incidenza nel comfort urbano, sono stati studiati diversi parametri fisici incidenti, valutati con l’ausilio del software di simulazione Envi-met, con l’output di cui, è stato possibile ottenere mappe di valori del comfort outdoor, sia della condizione esistente che in quella dopo l’intervento progettuale. Per quanto riguarda gli edifici, per valutare il livello di comfort negli ambienti interni è stato usato il software di simulazione EnergyPlus, mentre per valutare la prestazione energetica è stato usato il software Termolog Epix 5. L’output dei risultati ottenuti dai software di simulazione è uno strumento importante di verifica per le diverse scelte progettuali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le variabili ambientali e lo sfruttamento della pesca sono dei possibili fattori nel determinare la struttura della comunità demersale. L’area di studio è il Golfo di Antalya, con un area aperta ed una chiusa ad ogni attività di pesca, il periodo di studio ha coperto tre stagioni (primavera, estate, autunno). Lo scopo è quello di delineare un quadro generale sulla distribuzione spaziale e temporale delle risorse alieutiche demersali in quest’area. In questo lavoro di tesi la PCA è stata usata al fine di determinare le variabili ambientali (ossigeno, salinità, temperatura, pH, materia sospesa) che determinano maggiormente la differenza tra le stazioni, tecniche di analisi multivariata hanno invece indagato una possibile variazione su scala spaziale e temporale dei parametri abiotici. La Cluster Analysis effettuata sui dati di abbondanza ha delineato quattro raggruppamenti principali, due ad una profondità minore di 100 m e due ad una profondità maggiore (40% di similarità). Questi risultati sono confermati dall’analisi MDS. L’analisi SIMPER ha messo in evidenza le specie che maggiormente incidono sulla differenza tra strati di profondità. Gli indici di biodiversità sono stati calcolati per indagare la diversità e la variabilità temporale e spaziale della comunità demersale. Due procedure la BIO-ENV e la DistLM (Distance-based linear models) sono state effettuate per individuare le variabili abiotiche che potrebbero essere responsabili dei diversi raggruppamenti nella struttura del popolamento demersale. Le specie commerciali: Mullus barbatus, Upeneus moluccensis, Upeneus pori sono state prese come oggetto per la ricerca di possibili effetti della pesca a livello di popolazione. Per i dati di abbondanza e di biomassa di queste specie è stata eseguita l’analisi multivariata MANOVA (Multivariate Analysis of Variance) al fine di trovare eventuali variazioni dovute ai fattori profondità, stagione e transetto. Per ogni specie è stata valutata la sex ratio. Il metodo Bhattacharya ha permesso di determinare le classi di età e la loro abbondanza. In ultimo la relazione peso-lunghezza è stata ricavata separatamente per gli individui maschi e femmine al fine di determinare il tipo di crescita per ogni sesso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi riguarda la didattica della matematica e parla del modo di fare didattica negli istituti secondari di secondo grado attraverso l'analisi di un caso particolare: la didattica dei numeri complessi. La didattica verrà analizzata per prima cosa a livello generale attraverso l'esposizione dei punti principali della riforma Gelmini, e, successivamente, in particolare attraverso l'analisi della didattica dei numeri complessi nei licei scientifici. Di quest'ultima verranno presentati: gli strumenti con cui viene svolta, la modalità con cui vengono presentati i concetti, un nuovo metodo per migliorarla e, infine, il modo in cui i ragazzi la percepiscono. Questi elementi si traducono, rispettivamente, nell'analisi del libro `Matematica a colori', nell'esposizione di una lezione-tipo, nella proposta dell'utilizzo della storia della matematica e infine in un questionario posto agli alunni. Quanto emerso verrà confrontato con le indicazioni nazionali di alcuni stati esteri e il tutto verrà utilizzato per `leggere' i risultati del TIMMS ADVANCED 2008.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Implementazione di un sistema di sovralimentazione per un motore due tempi tramite supercharger, eseguito con metodo classico e monodimensionale col software GT-POWER.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Molte applicazioni sono legate a tecniche di rilassometria e risonanza magnetica nucleare (NMR). Tali applicazioni danno luogo a problemi di inversione della trasformata di Laplace discreta che è un problema notoriamente mal posto. UPEN (Uniform Penalty) è un metodo numerico di regolarizzazione utile a risolvere problemi di questo tipo. UPEN riformula l’inversione della trasformata di Laplace come un problema di minimo vincolato in cui la funzione obiettivo contiene il fit di dati e una componente di penalizzazione locale, che varia a seconda della soluzione stessa. Nella moderna spettroscopia NMR si studiano le correlazioni multidimensionali dei parametri di rilassamento longitudinale e trasversale. Per studiare i problemi derivanti dall’analisi di campioni multicomponenti è sorta la necessità di estendere gli algoritmi che implementano la trasformata inversa di Laplace in una dimensione al caso bidimensionale. In questa tesi si propone una possibile estensione dell'algoritmo UPEN dal caso monodimensionale al caso bidimensionale e si fornisce un'analisi numerica di tale estensione su dati simulati e su dati reali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questo lavoro è mostrare la potenza della teoria di Galois per caratterizzare i numeri complessi costruibili con riga e compasso o con origami e la soluzione di problemi geometrici della Grecia antica, quali la trisezione dell’angolo e la divisione della circonferenza in n parti uguali. Per raggiungere questo obiettivo determiniamo alcune relazioni significative tra l’assiomatica delle costruzioni con riga e compasso e quella delle costruzioni con origami, antica arte giapponese divenuta recentemente oggetto di studi algebrico-geometrici. Mostriamo che tutte le costruzioni possibili con riga e compasso sono realizzabili con il metodo origami, che in più consente di trisecare l’angolo grazie ad una nuova piega, portando ad estensioni algebriche di campi di gradi della forma 2^a3^b. Presentiamo poi i risultati di Gauss sui poligoni costruibili con riga e compasso, legati ai numeri primi di Fermat e una costruzione dell’eptadecagono regolare. Concludiamo combinando la teoria di Galois e il metodo origami per arrivare alla forma generale del numero di lati di un poligono regolare costruibile mediante origami e alla costruzione esplicita dell’ettagono regolare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente elaborato si propone di presentare l'approccio dell'Intercomprensione, ancora oggi poco conosciuto e utilizzato. Non ha la pretesa di essere un lavoro esaustivo su questo argomento ma intende semplicemente illustrare questo approccio ai lettori curiosi e non, interessati alle lingue straniere e il cui settore lavorativo sia quello della mediazione linguistica e interculturale. Apparentemente lontano da quest'ultima, infatti, l'intercomprensione può rivelarsi uno strumento in più per chi opera in questo settore, oltre ad essere un valido metodo per il raggiungimento del plurilinguismo promosso dalle istituzioni europee. Nel mondo di oggi, infatti, dove la mobilità da un paese all'altro occupa una posizione sempre più importante e preminente, la conoscenza delle lingue straniere risulta un requisito fondamentale. Vedremo come l'intercomprensione si rivela un'utile strumento per conseguire quel plurilinguismo tanto auspicato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi viene proposta un'analisi di tipo politolinguistico di una selezione di discorsi pronunciati dal politico inglese Nigel Farage. Alla fine degli anni 90 dello scorso secolo il linguista tedesco Armin Burkhardt ha proposto un nuovo metodo di analisi linguistica andatosi ad integrare agli studi classici relativi al discorso politico, alla retorica e all'analisi del contenuto. Mediante tale approccio transdisciplinare è possibile avvalersi degli strumenti di analisi forniti dalla linguistica e dallo studio del discorso, così come dei metodi di ricerca impiegati nei campi della scienza politica, della sociolinguistica e della retorica politica, fornendo un quadro analitico più complesso ed articolato. Nella presente tesi non solo vengono identificate le peculiarità della retorica del leader euroscettica, bensì viene effettuata un'analisi sia linguistica che contestuale, affrontando le tematiche del pensiero euroscettico e la sua tradizione in Inghilterra, identificando i temi principali trattati da Farage nei suoi discorsi. Individuato l'ambito di studio, viene poi proposta un'analisi di tipo sia quantitativo che qualitativo delle tecniche discorsive di Farage, partendo dalla descrizione del linguaggio e della retorica in generale sino all'identificazione delle strategie più efficaci all'ottenimento del consenso presso l'opinione pubblica in materia economica ed europea.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Al giorno d'oggi è diventato necessario conoscere varie lingue visto che viviamo ormai in un mondo sempre più interconnesso. L'inglese è diventata la lingua dominante, ma quali sono i rischi che ne derivano? E' veramente necessario utilizzare una "lingua terza" anche tra locutori di lingue della stessa famiglia? In Europa soprattutto, sembra che il multilinguismo sia diventato un ostacolo più che una ricchezza e c'è sempre più la tendenza ad accettare l'imposizione dell'inglese.Tuttavia ci sono metodi di didattica linguistica come l'"intercomprensione" che potrebbero permettere di riscoprire l'importanza delle famiglie linguistiche. Ciò permetterebbe di rivalutare e valorizzare le proprie radici culturali (attraverso la lingua) che rischiano di andare perdute per via di una massificazione culturale provocata dall'inglese. Pertanto questa tesi partirà da un'analisi complessiva delle lingue nel mondo (ecolinguistica, teorie di Louis-Jean Calvet), arriverà ad analizzare la situazione nell'Unione Europea e il ruolo dell'inglese giungendo infine a proporre l'intercomprensione (nello specifico il metodo EuRom5) come possibile mezzo di salvaguardia delle lingue nella loro diversità.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questa tesi è quello di presentare un fenomeno sociolinguistico che sta coinvolgendo sempre di più le generazioni d’oggi: il “politically correct”. A partire dalle sue origine americane, il “politically correct” viene qui analizzato in un contesto specifico: quello della Francia degli ultimi anni. Si è cercato di adottare un metodo più pragmatico possibile per accompagnare alla sua definizione e alla sua evoluzione esempi pratici e concreti, a partire dalle somiglianze riscontrate con la “langue de bois”, il linguaggio per eccellenza dei politici, così come viene definito in Francia, il concetto di taboo e i modi in cui si forma questo linguaggio attraverso figure retoriche e sigle. Ci si è concentrati quindi sull’affermazione del “politically correct” nei media, mostrando degli esempi presi da quotidiani francesi circa un fatto che ha sconvolto la Francia e il mondo intero: Charlie Hebdo e gli attacchi terroristici. In questo modo si è potuto affrontare la tematica del razzismo, il tema scelto per analizzare da un punto di vista specifico questo fenomeno sociolinguistico. Si è cercato di mostrare quindi il legame fra questa tematica e il “politically corrrect” analizzando dapprima la crescente paura nei confronti di tutta la comunità musulmana, attraverso l’analisi di parole ed espressioni “politically correct” presenti ormai negli articoli dei giornali francesi, per poi concludere con un’analisi di due libri “Parlez-vous le politiquement correct” di Georges Lebouc e “Mots et culture dans tous les sens. Initiation à la lexiculture pour italophones” e delle espressioni proposte sulla tematica del razzismo e della xenofobia, mostrando attraverso una tabella il cambiamento che hanno subito queste parole rispetto alla lingua originaria.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesi analizza le principali caratteristiche di due tipi di traduzione: la traduzione audiovisiva, e in particolare il sottotitolaggio, e la traduzione automatica (TA). Obiettivo della nostra ricerca è stabilire quali risultati è possibile aspettarsi dall’impiego di sistemi di traduzione automatica appositamente sviluppati, nella creazione di sottotitoli di qualità professionale. Tale metodo avrebbe il potenziale vantaggio di velocizzare il processo traduttivo, riducendo in parte la pressione cui i sottotitolatori sono sottoposti, dovendo realizzare molte traduzioni in tempi troppo brevi, spesso a scapito della qualità finale del prodotto. Nel presente lavoro, il Capitolo 1 delinea le tappe principali della nascita e dello sviluppo della traduzione automatica, fino ad arrivare ai sistemi di TA più moderni. Nel Capitolo 2 vengono presentati i tipi principali di sistemi di traduzione automatica, con riferimento alle loro potenzialità e alle loro debolezze, soprattutto per quanto riguarda il loro impiego nel settore multimediale. Il Capitolo 3 riguarda la storia del sottotitolaggio, e le condizioni che hanno portato allo sviluppo e alla diffusione delle diverse modalità di traduzione audiovisiva, di cui il sottotitolaggio è una variante. Nel Capitolo 4 descriveremo le fasi principali di questo processo traduttivo, con particolare enfasi sull’importanza del contesto di arrivo e delle esigenze e aspettative dei futuri fruitori del testo finale. I Capitoli 5 e 6 presentano il lavoro di ricerca “sul campo”, svolto per raccogliere il parere di sottotitolatori professionisti e fansubber, attivi in Italia e all’estero, riguardo la possibilità di usare la TA nel loro lavoro. Infine, il capitolo conclusivo fornisce un commento sui risultati ottenuti, e sulle prospettive future riguardo la possibile apertura da parte del sottotitolaggio verso questa nuova tecnologia.