442 resultados para Metodo de intervencao


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il BIM (Building Information Modeling ) è un processo coordinato per agevolare l’integrazione delle informazioni pertinenti alle varie fasi di progettazione dell’opera edilizia. La rappresentazione digitale di un edificio, completa di tutte le sue parti ed informazioni sempre aggiornate, affidabili ed accessibili, aiuta il confronto decisionale, la produzione di elaborati, la stima dei costi e tanti altri aspetti del processo edilizio che vengono così ad essere trattati in maniera più efficiente, immediata e con meno sprechi rispetto a molti approcci tradizionali ancora in uso. Con queste premesse la tesi ha voluto indagare potenzialità e criticità di strumenti progettuali avanzati per giungere ad una costruzione efficace e sostenibile. A questo scopo Revit di Autodesk si è dimostrato un software che permette di avere in un unico spazio di lavoro tutti i dati pertinenti alle figure professionali che intervengono durante il processo edilizio. Nel modello BIM realizzato per progettare realisticamente una villetta monofamiliare localizzata a Mezzojuso, in provincia di Palermo, sono stati esaminati molteplici aspetti: dal modello fisico, alla visualizzazione grafica 2D e 3D, alla modellazione parametrica di un modello concettuale energetico che coinvolge analisi di comfort termico ed igrometrico, ad un modello dei venti (per arrivare ad un design energetico ottimale). Il metodo di progetto è stato applicato facendo largo uso di elementi parametrici non standard nei modelli 3D e di altri prodotti realmente esistenti nel mercato italiano. Il risultato finale è stato quello di giungere ad una valutazione delle geometrie più idonee per il controllo degli spazi rispetto alla normativa locale, allo studio di più tipologie di pacchetti murari per risolvere i problemi di raffrescamento estivo e isolamento invernale, alla realizzazione di un computo metrico di massima: sono stati solo questi alcuni degli aspetti considerati per approcciare la tematica da un più ampio punto di vista multidisciplinare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il caso studio affrontato nella tesi è il complesso residenziale Pilastro, costruito tra gli anni 1962 e 1985 a Bologna. Collocato nella parte nord-est della città, all’interno del quartiere San Donato, il quartiere si presenta come una delle periferie più adatte ad ospitare i nuovi progetti di sviluppo urbano, in virtù della sua posizione strategica rispetto ai diversi poli e alla rete infrastrutturale principale. Questo studio consiste in una serie di analisi, effettuate al fine di giungere a trattare gli aspetti progettuali, che rispondono a una serie di problematiche riscontrate nella parte conosciuta come “Primo Impianto”. Le criticità affrontate sono: - Fenomeno di Canyon Urbano dovuto al rapporto tra la morfologia urbana e il microclima; - Limiti nella fruibilità degli spazi esterni (outdoor), a causa della presenza di spazi non caratterizzati, dotati di uno scarso livello di comfort termico durante il periodo estivo; - Problemi riguardo l’aspetto viabilistico e le sezioni stradali; - Bassa prestazione energetica correlata alla vetustà degli edifici; - Basso livello di comfort interno (indoor) degli edifici. La Tesi ha come obiettivo la definizione di diverse strategie progettuali che tengano conto delle condizioni climatiche relative al benessere termico come criterio per la riqualificazione degli spazi esterni e degli edifici esistenti. Quest’ultima terrà altresì conto della prestazione energetica dei fabbricati. Un aspetto complementare è quello del ragionamento sull’incidenza della progettazione degli spazi esterni (outdoor) sugli aspetti relativi al benessere negli spazi interni (indoor). Metodo L’approccio seguito nel trattare le problematiche ha come punto di partenza lo studio degli spazi esterni, che continua anche al livello del costruito. Attraverso diverse analisi a livello urbanistico, sono stati indagati una serie di aspetti come la morfologia urbana, i servizi, gli spazi aperti, la popolazione e la mobilità, etc. Il comparto studio, collocato nella parte nord-est del Primo Impianto in Via Lodovico Frati, è composto da edifici residenziali in linea e lo spazio “in between” che si affaccia alla strada. Al fine di considerare le condizioni climatiche e la loro incidenza nel comfort urbano, sono stati studiati diversi parametri fisici incidenti, valutati con l’ausilio del software di simulazione Envi-met, con l’output di cui, è stato possibile ottenere mappe di valori del comfort outdoor, sia della condizione esistente che in quella dopo l’intervento progettuale. Per quanto riguarda gli edifici, per valutare il livello di comfort negli ambienti interni è stato usato il software di simulazione EnergyPlus, mentre per valutare la prestazione energetica è stato usato il software Termolog Epix 5. L’output dei risultati ottenuti dai software di simulazione è uno strumento importante di verifica per le diverse scelte progettuali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le variabili ambientali e lo sfruttamento della pesca sono dei possibili fattori nel determinare la struttura della comunità demersale. L’area di studio è il Golfo di Antalya, con un area aperta ed una chiusa ad ogni attività di pesca, il periodo di studio ha coperto tre stagioni (primavera, estate, autunno). Lo scopo è quello di delineare un quadro generale sulla distribuzione spaziale e temporale delle risorse alieutiche demersali in quest’area. In questo lavoro di tesi la PCA è stata usata al fine di determinare le variabili ambientali (ossigeno, salinità, temperatura, pH, materia sospesa) che determinano maggiormente la differenza tra le stazioni, tecniche di analisi multivariata hanno invece indagato una possibile variazione su scala spaziale e temporale dei parametri abiotici. La Cluster Analysis effettuata sui dati di abbondanza ha delineato quattro raggruppamenti principali, due ad una profondità minore di 100 m e due ad una profondità maggiore (40% di similarità). Questi risultati sono confermati dall’analisi MDS. L’analisi SIMPER ha messo in evidenza le specie che maggiormente incidono sulla differenza tra strati di profondità. Gli indici di biodiversità sono stati calcolati per indagare la diversità e la variabilità temporale e spaziale della comunità demersale. Due procedure la BIO-ENV e la DistLM (Distance-based linear models) sono state effettuate per individuare le variabili abiotiche che potrebbero essere responsabili dei diversi raggruppamenti nella struttura del popolamento demersale. Le specie commerciali: Mullus barbatus, Upeneus moluccensis, Upeneus pori sono state prese come oggetto per la ricerca di possibili effetti della pesca a livello di popolazione. Per i dati di abbondanza e di biomassa di queste specie è stata eseguita l’analisi multivariata MANOVA (Multivariate Analysis of Variance) al fine di trovare eventuali variazioni dovute ai fattori profondità, stagione e transetto. Per ogni specie è stata valutata la sex ratio. Il metodo Bhattacharya ha permesso di determinare le classi di età e la loro abbondanza. In ultimo la relazione peso-lunghezza è stata ricavata separatamente per gli individui maschi e femmine al fine di determinare il tipo di crescita per ogni sesso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi riguarda la didattica della matematica e parla del modo di fare didattica negli istituti secondari di secondo grado attraverso l'analisi di un caso particolare: la didattica dei numeri complessi. La didattica verrà analizzata per prima cosa a livello generale attraverso l'esposizione dei punti principali della riforma Gelmini, e, successivamente, in particolare attraverso l'analisi della didattica dei numeri complessi nei licei scientifici. Di quest'ultima verranno presentati: gli strumenti con cui viene svolta, la modalità con cui vengono presentati i concetti, un nuovo metodo per migliorarla e, infine, il modo in cui i ragazzi la percepiscono. Questi elementi si traducono, rispettivamente, nell'analisi del libro `Matematica a colori', nell'esposizione di una lezione-tipo, nella proposta dell'utilizzo della storia della matematica e infine in un questionario posto agli alunni. Quanto emerso verrà confrontato con le indicazioni nazionali di alcuni stati esteri e il tutto verrà utilizzato per `leggere' i risultati del TIMMS ADVANCED 2008.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Implementazione di un sistema di sovralimentazione per un motore due tempi tramite supercharger, eseguito con metodo classico e monodimensionale col software GT-POWER.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Molte applicazioni sono legate a tecniche di rilassometria e risonanza magnetica nucleare (NMR). Tali applicazioni danno luogo a problemi di inversione della trasformata di Laplace discreta che è un problema notoriamente mal posto. UPEN (Uniform Penalty) è un metodo numerico di regolarizzazione utile a risolvere problemi di questo tipo. UPEN riformula l’inversione della trasformata di Laplace come un problema di minimo vincolato in cui la funzione obiettivo contiene il fit di dati e una componente di penalizzazione locale, che varia a seconda della soluzione stessa. Nella moderna spettroscopia NMR si studiano le correlazioni multidimensionali dei parametri di rilassamento longitudinale e trasversale. Per studiare i problemi derivanti dall’analisi di campioni multicomponenti è sorta la necessità di estendere gli algoritmi che implementano la trasformata inversa di Laplace in una dimensione al caso bidimensionale. In questa tesi si propone una possibile estensione dell'algoritmo UPEN dal caso monodimensionale al caso bidimensionale e si fornisce un'analisi numerica di tale estensione su dati simulati e su dati reali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questo lavoro è mostrare la potenza della teoria di Galois per caratterizzare i numeri complessi costruibili con riga e compasso o con origami e la soluzione di problemi geometrici della Grecia antica, quali la trisezione dell’angolo e la divisione della circonferenza in n parti uguali. Per raggiungere questo obiettivo determiniamo alcune relazioni significative tra l’assiomatica delle costruzioni con riga e compasso e quella delle costruzioni con origami, antica arte giapponese divenuta recentemente oggetto di studi algebrico-geometrici. Mostriamo che tutte le costruzioni possibili con riga e compasso sono realizzabili con il metodo origami, che in più consente di trisecare l’angolo grazie ad una nuova piega, portando ad estensioni algebriche di campi di gradi della forma 2^a3^b. Presentiamo poi i risultati di Gauss sui poligoni costruibili con riga e compasso, legati ai numeri primi di Fermat e una costruzione dell’eptadecagono regolare. Concludiamo combinando la teoria di Galois e il metodo origami per arrivare alla forma generale del numero di lati di un poligono regolare costruibile mediante origami e alla costruzione esplicita dell’ettagono regolare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente elaborato si propone di presentare l'approccio dell'Intercomprensione, ancora oggi poco conosciuto e utilizzato. Non ha la pretesa di essere un lavoro esaustivo su questo argomento ma intende semplicemente illustrare questo approccio ai lettori curiosi e non, interessati alle lingue straniere e il cui settore lavorativo sia quello della mediazione linguistica e interculturale. Apparentemente lontano da quest'ultima, infatti, l'intercomprensione può rivelarsi uno strumento in più per chi opera in questo settore, oltre ad essere un valido metodo per il raggiungimento del plurilinguismo promosso dalle istituzioni europee. Nel mondo di oggi, infatti, dove la mobilità da un paese all'altro occupa una posizione sempre più importante e preminente, la conoscenza delle lingue straniere risulta un requisito fondamentale. Vedremo come l'intercomprensione si rivela un'utile strumento per conseguire quel plurilinguismo tanto auspicato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi viene proposta un'analisi di tipo politolinguistico di una selezione di discorsi pronunciati dal politico inglese Nigel Farage. Alla fine degli anni 90 dello scorso secolo il linguista tedesco Armin Burkhardt ha proposto un nuovo metodo di analisi linguistica andatosi ad integrare agli studi classici relativi al discorso politico, alla retorica e all'analisi del contenuto. Mediante tale approccio transdisciplinare è possibile avvalersi degli strumenti di analisi forniti dalla linguistica e dallo studio del discorso, così come dei metodi di ricerca impiegati nei campi della scienza politica, della sociolinguistica e della retorica politica, fornendo un quadro analitico più complesso ed articolato. Nella presente tesi non solo vengono identificate le peculiarità della retorica del leader euroscettica, bensì viene effettuata un'analisi sia linguistica che contestuale, affrontando le tematiche del pensiero euroscettico e la sua tradizione in Inghilterra, identificando i temi principali trattati da Farage nei suoi discorsi. Individuato l'ambito di studio, viene poi proposta un'analisi di tipo sia quantitativo che qualitativo delle tecniche discorsive di Farage, partendo dalla descrizione del linguaggio e della retorica in generale sino all'identificazione delle strategie più efficaci all'ottenimento del consenso presso l'opinione pubblica in materia economica ed europea.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Al giorno d'oggi è diventato necessario conoscere varie lingue visto che viviamo ormai in un mondo sempre più interconnesso. L'inglese è diventata la lingua dominante, ma quali sono i rischi che ne derivano? E' veramente necessario utilizzare una "lingua terza" anche tra locutori di lingue della stessa famiglia? In Europa soprattutto, sembra che il multilinguismo sia diventato un ostacolo più che una ricchezza e c'è sempre più la tendenza ad accettare l'imposizione dell'inglese.Tuttavia ci sono metodi di didattica linguistica come l'"intercomprensione" che potrebbero permettere di riscoprire l'importanza delle famiglie linguistiche. Ciò permetterebbe di rivalutare e valorizzare le proprie radici culturali (attraverso la lingua) che rischiano di andare perdute per via di una massificazione culturale provocata dall'inglese. Pertanto questa tesi partirà da un'analisi complessiva delle lingue nel mondo (ecolinguistica, teorie di Louis-Jean Calvet), arriverà ad analizzare la situazione nell'Unione Europea e il ruolo dell'inglese giungendo infine a proporre l'intercomprensione (nello specifico il metodo EuRom5) come possibile mezzo di salvaguardia delle lingue nella loro diversità.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questa tesi è quello di presentare un fenomeno sociolinguistico che sta coinvolgendo sempre di più le generazioni d’oggi: il “politically correct”. A partire dalle sue origine americane, il “politically correct” viene qui analizzato in un contesto specifico: quello della Francia degli ultimi anni. Si è cercato di adottare un metodo più pragmatico possibile per accompagnare alla sua definizione e alla sua evoluzione esempi pratici e concreti, a partire dalle somiglianze riscontrate con la “langue de bois”, il linguaggio per eccellenza dei politici, così come viene definito in Francia, il concetto di taboo e i modi in cui si forma questo linguaggio attraverso figure retoriche e sigle. Ci si è concentrati quindi sull’affermazione del “politically correct” nei media, mostrando degli esempi presi da quotidiani francesi circa un fatto che ha sconvolto la Francia e il mondo intero: Charlie Hebdo e gli attacchi terroristici. In questo modo si è potuto affrontare la tematica del razzismo, il tema scelto per analizzare da un punto di vista specifico questo fenomeno sociolinguistico. Si è cercato di mostrare quindi il legame fra questa tematica e il “politically corrrect” analizzando dapprima la crescente paura nei confronti di tutta la comunità musulmana, attraverso l’analisi di parole ed espressioni “politically correct” presenti ormai negli articoli dei giornali francesi, per poi concludere con un’analisi di due libri “Parlez-vous le politiquement correct” di Georges Lebouc e “Mots et culture dans tous les sens. Initiation à la lexiculture pour italophones” e delle espressioni proposte sulla tematica del razzismo e della xenofobia, mostrando attraverso una tabella il cambiamento che hanno subito queste parole rispetto alla lingua originaria.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesi analizza le principali caratteristiche di due tipi di traduzione: la traduzione audiovisiva, e in particolare il sottotitolaggio, e la traduzione automatica (TA). Obiettivo della nostra ricerca è stabilire quali risultati è possibile aspettarsi dall’impiego di sistemi di traduzione automatica appositamente sviluppati, nella creazione di sottotitoli di qualità professionale. Tale metodo avrebbe il potenziale vantaggio di velocizzare il processo traduttivo, riducendo in parte la pressione cui i sottotitolatori sono sottoposti, dovendo realizzare molte traduzioni in tempi troppo brevi, spesso a scapito della qualità finale del prodotto. Nel presente lavoro, il Capitolo 1 delinea le tappe principali della nascita e dello sviluppo della traduzione automatica, fino ad arrivare ai sistemi di TA più moderni. Nel Capitolo 2 vengono presentati i tipi principali di sistemi di traduzione automatica, con riferimento alle loro potenzialità e alle loro debolezze, soprattutto per quanto riguarda il loro impiego nel settore multimediale. Il Capitolo 3 riguarda la storia del sottotitolaggio, e le condizioni che hanno portato allo sviluppo e alla diffusione delle diverse modalità di traduzione audiovisiva, di cui il sottotitolaggio è una variante. Nel Capitolo 4 descriveremo le fasi principali di questo processo traduttivo, con particolare enfasi sull’importanza del contesto di arrivo e delle esigenze e aspettative dei futuri fruitori del testo finale. I Capitoli 5 e 6 presentano il lavoro di ricerca “sul campo”, svolto per raccogliere il parere di sottotitolatori professionisti e fansubber, attivi in Italia e all’estero, riguardo la possibilità di usare la TA nel loro lavoro. Infine, il capitolo conclusivo fornisce un commento sui risultati ottenuti, e sulle prospettive future riguardo la possibile apertura da parte del sottotitolaggio verso questa nuova tecnologia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Flipped Classroom è una metodologia didattica innovativa che prevede una inversione dei momenti classici delle didattica: la lezione frontale a scuola e lo studio individuale a casa. L’idea alla base della Flipped Classroom è utilizzare la tecnologia moderna per diffondere i contenuti fuori dall’orario scolastico così da concentrare poi le ore di lezione sull’elaborazione dei contenuti stessi. In questo modo si riporta l’attenzione didattica sull’elaborazione dei contenuti piuttosto che sul loro ascolto passivo. A seguito dello studio teorico del metodo Flipped ho fatto una esperienza di tirocinio presso una classe terza della Scuola secondaria di primo grado "`Il Guercino"' dell'IC9, in collaborazione con la professoressa Leone, per applicare questa metodologia didattica. Una volta in classe, io e la professoressa, abbiamo considerato più efficace e utile, per gli studenti con cui lavoravamo, fare propedeutica piuttosto che Flipped Classroom. L’esperienza di tirocinio è stata conclusa con un questionario per valutare l’utilizzo, da parte dei nostri studenti, della piattaforma didattica Moodle, in uso nella scuola. I risultati dell’analisi delle risposte è stato conforme a quanto da noi atteso: data l’età i nostri studenti non avevano il giusto grado di autonomia per lavorare con la metodologia della Flipped Classroom.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi vengono valutati gli effetti sui modelli di regressione lineare da parte di troncature deterministiche dei dati analizzati, e viene proposto un metodo alternativo per effettuare queste regressioni, che rimuova queste distorsioni. In particolare vengono discussi questi effetti nel campo della ricerca biologica, come nel progetto Mark-Age. Il progetto Mark-Age ha come obiettivo quello di ottenere un set di biomarcatori per l'invecchiamento, attraverso l'uso di metodi di data learning in analisi di tipo trasversale; elaborando cioè diverse variabili misurate sulle popolazioni esaminate riguardanti più sistemi fisiologici contemporaneamente e senza escludere interazioni locali fra queste. E' necessario tenere conto in queste analisi che questi dati sono deterministicamente troncati per via dei criteri di selezione sull’età dei partecipanti, e che questo ha un effetto rilevante sui metodi di analisi standard, i quali invece ipotizzano che non vi sarebbe alcuna relazione fra l’assenza di un dato ed il suo valore, se questo fosse misurato. In questa tesi vengono studiati gli effetti di questa troncatura sia per quanto riguarda la selezione di modelli ottimali, che della stima dei parametri per questi modelli. Vengono studiati e caratterizzati questi effetti nell'ambito di un toy model, che permette di quantificare la distorsione e la perdita di potenza dovuta alla troncatura. Viene inoltre introdotto un appropriato metodo di regressione, chiamato Tobit, che tenga conto di questi effetti. Questo metodo viene infine applicato ad un sottoinsieme dati del progetto Mark-Age, dimostrando una notevole riduzione del bias di predizione, ottenendo anche una stima della precisione di queste predizioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel presente lavoro di tesi ho sviluppato un metodo di analisi di dati di DW-MRI (Diffusion-Weighted Magnetic Resonance Imaging)cerebrale, tramite un algoritmo di trattografia, per la ricostruzione del tratto corticospinale, in un campione di 25 volontari sani. Il diffusion tensor imaging (DTI) sfrutta la capacità del tensore di diffusione D di misurare il processo di diffusione dell’acqua, per stimare quantitativamente l’anisotropia dei tessuti. In particolare, nella sostanza bianca cerebrale la diffusione delle molecole di acqua è direzionata preferenzialmente lungo le fibre, mentre è ostacolata perpendicolarmente ad esse. La trattografia utilizza le informazioni ottenute tramite il DW imaging per fornire una misura della connettività strutturale fra diverse regioni del cervello. Nel lavoro si è concentrata l’attenzione sul fascio corticospinale, che è coinvolto nella motricità volontaria, trasmettendo gli impulsi dalla corteccia motoria ai motoneuroni del midollo spinale. Il lavoro si è articolato in 3 fasi. Nella prima ho sviluppato il pre-processing di immagini DW acquisite con un gradiente di diffusione sia 25 che a 64 direzioni in ognuno dei 25 volontari sani. Si è messo a punto un metodo originale ed innovativo, basato su “Regions of Interest” (ROIs), ottenute attraverso la segmentazione automatizzata della sostanza grigia e ROIs definite manualmente su un template comune a tutti i soggetti in esame. Per ricostruire il fascio si è usato un algoritmo di trattografia probabilistica che stima la direzione più probabile delle fibre e, con un numero elevato di direzioni del gradiente, riesce ad individuare, se presente, più di una direzione dominante (seconda fibra). Nella seconda parte del lavoro, ciascun fascio è stato suddiviso in 100 segmenti (percentili). Sono stati stimati anisotropia frazionaria (FA), diffusività media, probabilità di connettività, volume del fascio e della seconda fibra con un’analisi quantitativa “along-tract”, per ottenere un confronto accurato dei rispettivi percentili dei fasci nei diversi soggetti. Nella terza parte dello studio è stato fatto il confronto dei dati ottenuti a 25 e 64 direzioni del gradiente ed il confronto del fascio fra entrambi i lati. Dall’analisi statistica dei dati inter-subject e intra-subject è emersa un’elevata variabilità tra soggetti, dimostrando l’importanza di parametrizzare il tratto. I risultati ottenuti confermano che il metodo di analisi trattografica del fascio cortico-spinale messo a punto è risultato affidabile e riproducibile. Inoltre, è risultato che un’acquisizione con 25 direzioni di DTI, meglio tollerata dal paziente per la minore durata dello scan, assicura risultati attendibili. La principale applicazione clinica riguarda patologie neurodegenerative con sintomi motori sia acquisite, quali sindromi parkinsoniane sia su base genetica o la valutazione di masse endocraniche, per la definizione del grado di contiguità del fascio. Infine, sono state poste le basi per la standardizzazione dell’analisi quantitativa di altri fasci di interesse in ambito clinico o di studi di ricerca fisiopatogenetica.