17 resultados para Amélioration de la performance

em AMS Tesi di Laurea - Alm@DL - Università di Bologna


Relevância:

90.00% 90.00%

Publicador:

Resumo:

L’approccio performance-based nell’Ingegneria sismica è una metodologia di progetto che tiene esplicitamente in conto la performance dell’edificio tra i criteri progettuali. Nell’ambito dei metodi PBEE (Performance-Based Earthquake Engineering) di seconda generazione, quello proposto dal PEER (Pacific Earthquake Engineering Research Center) risulta essere il più diffuso. In esso la performance dell’edificio oggetto di studio viene valutata in termini quantitativi secondo le 3D’s (dollars, deaths, downtime – soldi, decessi, inutilizzo), quantità di notevole interesse per l’utente finale. Il metodo si compone di quattro step, indipendenti tra loro fino alla sintesi finale. Essi sono: l’analisi di pericolosità, l’analisi strutturale, l’analisi di danno, l’analisi delle perdite o di loss. Il risultato finale è la curva di loss, che assegna ad ogni possibile perdita economica conseguente all’evento sismico una probabilità di superamento nell’arco temporale di riferimento. Dopo la presentazione del metodo PEER, si è provveduto ad una sua applicazione su di un caso di studio, nella fattispecie un telaio piano di quattro campate, multipiano, in calcestruzzo armato, costruito secondo le norme del ’92. Per l’analisi di pericolosità si è fatto ricorso alle mappe di pericolosità disponibili sul sito INGV, mentre per l’analisi strutturale si è utilizzato il software open-source OpenSees. Le funzioni di fragilità e quelle di loss sono state sviluppate facendo riferimento alla letteratura scientifica, in particolare il bollettino Fib numero 68 “Probabilistic performance-based seismic design”. In questa sede ci si è concentrati unicamente sulla stima delle perdite economiche, tralasciando le altre due variabili decisionali. Al termine del procedimento si è svolta un’analisi di sensitività per indagare quali parametri influenzino maggiormente la curva di loss. Data la curva di pericolosità, il legame EDP(IM) e la deformazione ultima a collasso risultano essere i più rilevanti sul risultato dell’analisi.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Gli ammassi di galassie sono le strutture più grandi che possiamo osservare nell’Universo. La loro formazione deriva direttamente dalla crescita delle perturbazioni primordiali di densità e dal loro conseguente collasso gravitazionale indotto appunto dalla gravità. Gli ammassi di galassie sono molto importanti in Astrofisica in quanto possono essere considerati come dei laboratori per lo studio di molti aspetti fisici legati al gas, all’ICM e all’evoluzione delle galassie. Lo studio degli ammassi di galassie è molto importante anche per la Cosmologia in quanto è possibile effettuare delle stime sui parametri cosmologici ed ottenere dei vincoli sulla geometria dell’Universo andando a valutare la loro massa e la loro distribuzione nell’Universo. Diventa quindi fondamentale l’utilizzo di algoritmi che ci permettano di utilizzare i dati ottenuti dalle osservazioni per cercare ed individuare gli ammassi di galassie in modo tale da definire meglio la loro distribuzione nell’Universo. Le più recenti survey di galassie ci forniscono molteplici informazioni a riguardo delle galassie, come ad esempio la loro magnitudine in varie bande osservative, il loro colore, la loro velocità ecc. In questo lavoro abbiamo voluto testare la performance di un algoritmo Optimal Filtering nella ricerca degli ammassi di galassie utilizzando prima solo l’informazione della magnitudine delle galassie e successivamente anche l’informazione sul loro colore. Quello che abbiamo voluto fare, quindi, è stato valutare se l’utilizzo combinato della magnitudine delle galassie e del loro colore permette all’algoritmo di individuare più facilmente, e in numero maggiore, gli ammassi di galassie.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Il presente lavoro nasce dall’obiettivo di individuare strumenti statistici per indagare, sotto diversi aspetti, il flusso di lavoro di un Laboratorio di Anatomia Patologica. Il punto di partenza dello studio è l’ambiente di lavoro di ATHENA, software gestionale utilizzato nell’Anatomia Patologica, sviluppato dalla NoemaLife S.p.A., azienda specializzata nell’informatica per la sanità. A partire da tale applicativo è stato innanzitutto formalizzato il workflow del laboratorio (Capitolo 2), nelle sue caratteristiche e nelle sue possibili varianti, identificando le operazioni principali attraverso una serie di “fasi”. Proprio le fasi, unitamente alle informazioni addizionali ad esse associate, saranno per tutta la trattazione e sotto diversi punti di vista al centro dello studio. L’analisi che presentiamo è stata per completezza sviluppata in due scenari che tengono conto di diversi aspetti delle informazioni in possesso. Il primo scenario tiene conto delle sequenze di fasi, che si presentano nel loro ordine cronologico, comprensive di eventuali ripetizioni o cicli di fasi precedenti alla conclusione. Attraverso l’elaborazione dei dati secondo specifici formati è stata svolta un’iniziale indagine grafica di Workflow Mining (Capitolo 3) grazie all’ausilio di EMiT, un software che attraverso un set di log di processo restituisce graficamente il flusso di lavoro che li rappresenta. Questa indagine consente già di valutare la completezza dell’utilizzo di un applicativo rispetto alle sue potenzialità. Successivamente, le stesse fasi sono state elaborate attraverso uno specifico adattamento di un comune algoritmo di allineamento globale, l’algoritmo Needleman-Wunsch (Capitolo 4). L’utilizzo delle tecniche di allineamento applicate a sequenze di processo è in grado di individuare, nell’ambito di una specifica codifica delle fasi, le similarità tra casi clinici. L’algoritmo di Needleman-Wunsch individua le identità e le discordanze tra due stringhe di caratteri, assegnando relativi punteggi che portano a valutarne la similarità. Tale algoritmo è stato opportunamente modificato affinché possa riconoscere e penalizzare differentemente cicli e ripetizioni, piuttosto che fasi mancanti. Sempre in ottica di allineamento sarà utilizzato l’algoritmo euristico Clustal, che a partire da un confronto pairwise tra sequenze costruisce un dendrogramma rappresentante graficamente l’aggregazione dei casi in funzione della loro similarità. Proprio il dendrogramma, per la sua struttura grafica ad albero, è in grado di mostrare intuitivamente l’andamento evolutivo della similarità di un pattern di casi. Il secondo scenario (Capitolo 5) aggiunge alle sequenze l’informazione temporale in termini di istante di esecuzione di ogni fase. Da un dominio basato su sequenze di fasi, si passa dunque ad uno scenario di serie temporali. I tempi rappresentano infatti un dato essenziale per valutare la performance di un laboratorio e per individuare la conformità agli standard richiesti. Il confronto tra i casi è stato effettuato con diverse modalità, in modo da stabilire la distanza tra tutte le coppie sotto diversi aspetti: le sequenze, rappresentate in uno specifico sistema di riferimento, sono state confrontate in base alla Distanza Euclidea ed alla Dynamic Time Warping, in grado di esprimerne le discordanze rispettivamente temporali, di forma e, dunque, di processo. Alla luce dei risultati e del loro confronto, saranno presentate già in questa fase le prime valutazioni sulla pertinenza delle distanze e sulle informazioni deducibili da esse. Il Capitolo 6 rappresenta la ricerca delle correlazioni tra elementi caratteristici del processo e la performance dello stesso. Svariati fattori come le procedure utilizzate, gli utenti coinvolti ed ulteriori specificità determinano direttamente o indirettamente la qualità del servizio erogato. Le distanze precedentemente calcolate vengono dunque sottoposte a clustering, una tecnica che a partire da un insieme eterogeneo di elementi individua famiglie o gruppi simili. L’algoritmo utilizzato sarà l’UPGMA, comunemente applicato nel clustering in quanto, utilizzando, una logica di medie pesate, porta a clusterizzazioni pertinenti anche in ambiti diversi, dal campo biologico a quello industriale. L’ottenimento dei cluster potrà dunque essere finalmente sottoposto ad un’attività di ricerca di correlazioni utili, che saranno individuate ed interpretate relativamente all’attività gestionale del laboratorio. La presente trattazione propone quindi modelli sperimentali adattati al caso in esame ma idealmente estendibili, interamente o in parte, a tutti i processi che presentano caratteristiche analoghe.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’integrazione multisensoriale è la capacità del sistema nervoso di utilizzare molteplici sorgenti sensoriali. Una tra le più studiate forme di integrazione è quella tra informazioni visive ed acustiche. La capacità di localizzare uno stimolo acustico nello spazio è un processo meno accurato ed affidabile della localizzazione visiva, di conseguenza, un segnale visivo è spesso in grado di “catturare” (ventriloquismo) o di incrementare (enhancement multisensoriale) la performance di localizzazione acustica. Numerose evidenze sperimentali hanno contribuito ad individuare i processi neurali e le aree cerebrali alla base dei fenomeni integrativi; in particolare, un importante contributo viene dallo studio su soggetti con lesioni cerebrali. Tuttavia molti aspetti sui possibili meccanismi coinvolti restano ancora da chiarire. Obiettivo di questa tesi è stato lo sviluppo di un modello matematico di rete neurale per fare luce sui meccanismi alla base dell’interazione visuo-acustica e dei suoi fenomeni di plasticità. In particolare, il modello sviluppato è in grado di riprodurre condizioni che si verificano in-vivo, replicando i fenomeni di ventriloquismo ed enhancement in diversi stati fisiopatologici e interpretandoli in termini di risposte neurali e reciproche interazione tra i neuroni. Oltre ad essere utile a migliorare la comprensione dei meccanismi e dei circuiti neurali coinvolti nell’integrazione multisensoriale, il modello può anche essere utile per simulare scenari nuovi, con la possibilità di effettuare predizioni da testare in successivi esperimenti.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Il mercato, in questi ultimi dieci anni, si è modificato in un qualcosa di più globale e competitivo. Questa trasformazione ha imposto alle imprese l’adozione di strategie orientate all’innovazione di prodotto e di processo, e all’efficienza industriale “Environmentally friendly” di lungo periodo. Le aziende, infatti, per competere sia nel territorio nazionale sia in quello internazionale, sono alla costante ricerca di una continua ottimizzazione, attraverso il processo “deming” del miglioramento continuo, delle proprie prestazioni; spesso però capita che massimizzino esclusivamente la performance produttiva, che è stata migliorata con l’introduzione, oramai da circa 35 anni, della Lean production e oggi quindi presenta limitati margini di miglioramento. È alla luce di questo ragionamento che le aziende, quelle più lungimiranti, stanno cercando di dirigersi verso un’altra direzione, ovvero quella che mira a ridurre gli sprechi e le perdite, di risorse naturali, nei processi produttivi, in accordo coi principi della sostenibilità ambientale. Considerando le quantità di risorse naturali messe in gioco in grandi aziende quali la VM Motori S.p.A. possiamo intuire quanta marginalità di miglioramento potremmo ottenere con l’attuazione di processi di miglioramento focalizzati sui singoli aspetti. I primi due capitoli trattano il tema dello sviluppo sostenibile e del S.G.A. in Italia e all’estero. Nel capitolo 3 introduco l’Azienda, descrivo tutte le fasi di processo per la fabbricazione di varie tipologie di motori rigorosamente diesel, l’impianto elettrico, termico e di aria compressa. Nel capitolo 4 faccio l’analisi di tutti gli aspetti e gli impatti ambientali; inoltre, per ogni fattore d’impatto ambientale, verrà compilata la cosiddetta VIA che sarà riassunta nell’ultimo paragrafo. Nel capitolo 5 affronto il concetto del miglioramento continuo applicando la filosofia del World Class Manufacturing che è stato implementato in Azienda.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Il presente elaborato consiste in una proposta di traduzione dell’introduzione, opera dalla curatrice Saša Obuchova, al catalogo della mostra "Performans v Rossi: kartografija istorii" [La performance in Russia: una cartografia della sua storia], tenutasi al museo d’arte contemporanea Garaž di Mosca. L’elaborato consta di tre capitoli. Il primo, di carattere generale, descrive le caratteristiche del testo che si è scelto di tradurre, presenta brevemente l’autrice, la struttura del catalogo di cui tale testo fa parte e la mostra per la quale il catalogo è stato pubblicato, e dà infine qualche cenno sulla storia del museo Garaž. Il secondo, di carattere artistico, propone una riflessione sul significato della parolaperformance” e una breve sintesi della storia della performance-art in Russia. Infine, nel terzo, si troverà la traduzione del testo "Ot slova k dejstvii" [Dalla parola all’azione] della curatrice della mostra Saša Obuchova, preceduta da un’introduzione al testo e alla traduzione.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L'obiettivo della seguente trattazione è quello di illustrare i principali metodi di determinazione delle resistenze al moto per materiali rotabili. Verranno quindi proposti e discussi una serie di diversi approcci al problema corredati da esempi e commenti finalizzati a chiarire, oltre al funzionamento degli strumenti, anche l'ambito di validità di questi, evidenziando eventuali differenze nei risultati e interpretandole razionalmente. Nella prima parte verranno introdotti ed analizzati i singoli contributi che, durante l'avanzamento di un generico veicolo ferroviario, generano resistenze al moto: partendo dalle resistenze di tipo meccanico dovute alle caratteristiche del rotabile e alle sue proprietà meccaniche fino a quelle di tipo aerodinamico che, come si vedrà in seguito, dipendono fortemente non solo dalla tipologia di veicolo ma anche dalle condizioni ambientali di esercizio, ma soprattutto dalla velocità di percorrenza. Si passa quindi ad illustrare i principali metodi di determinazione empirici adottati dalle compagnie ferroviarie e dai produttori di materiale rotabile in vari paesi. Nell'ultima parte di questa trattazione si propone una serie di considerazioni finalizzate ad analizzare eventuali soluzioni pratiche per migliorare l'efficienza e la performance dei materiali rotabili sulla base delle informazioni ottenute dallo studio delle varie esperienze analizzate nei capitoli.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’azoto è uno dei prodotti principali dell’industria chimica, utilizzato principalmente per assicurare un sicuro stoccaggio di composti infiammabili. Generatori con sistemi PSA sono spesso più economici della tradizionale distillazione criogenica. I processi PSA utilizzano una colonna a letto fisso, riempita con materiale adsorbente, che adsorbe selettivamente un componente da una miscela gassosa. L’ossigeno diffonde molto più velocemente dell'azoto nei pori di setacci molecolari carboniosi. Oltre ad un ottimo materiale adsorbente, anche il design è fondamentale per la performance di un processo PSA. La fase di adsorbimento è seguita da una fase di desorbimento. Il materiale adsorbente può essere quindi riutilizzato nel ciclo seguente. L’assenza di un simulatore di processo ha reso necessario l’uso di dati sperimentali per sviluppare nuovi processi. Un tale approccio è molto costoso e lungo. Una modellazione e simulazione matematica, che consideri tutti i fenomeni di trasporto, è richiesta per una migliore comprensione dell'adsorbente sia per l'ottimizzazione del processo. La dinamica della colonna richiede la soluzione di insiemi di PDE distribuite nel tempo e nello spazio. Questo lavoro è stato svolto presso l'Università di Scienze Applicate - Münster, Germania. Argomento di questa tesi è la modellazione e simulazione di un impianto PSA per la produzione di azoto con il simulatore di processo Aspen Adsorption con l’obiettivo di permettere in futuro ottimizzazioni di processo affidabili, attendibili ed economiche basate su computazioni numeriche. E' discussa l’ottimizzazione di parametri, dati cinetici, termodinamici e di equilibrio. Il modello è affidabile, rigoroso e risponde adeguatamente a diverse condizioni al contorno. Tuttavia non è ancora pienamente soddisfacente poiché manca una rappresentazione adeguata della cinetica ovvero dei fenomeni di trasporto di materia. La messa a punto del software permetterà in futuro di indagare velocemente nuove possibilità di operazione.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Questo progetto è stato sviluppato durante un periodo di ricerca presso il Dipartimento di Ingegneria Civile del Trinity College e continuato presso l’Università di Bologna. Il progetto ha l’obiettivo di analizzare le soluzioni per l’ampliamento, la sostituzione degli impianti e l’ottimizzazione energetica di un tipico edificio residenziale Irlandese, una end of terrace in mattoni costruita negli anni ’20, collocata a Blackrock (Dublino). Diversi studi sostengono che lo stock abitativo irlandese è il peggiore del nord Europa per quanto riguarda la performance energetica. Questa tesi consta di una prima parte di studio del contesto e delle tecniche costruttive tradizionali irlandesi; è presente un capitolo di approfondimento sulle leggi riguardanti le costruzioni e gli incentivi forniti dal governo irlandese per interventi di retrofit energetico. Il terzo capitolo è un’analisi dell'esistente, con disegni del rilievo geometrico, immagini dell’edificio originale, termogrammi e dati riguardanti l’attuale performance energetica. Vengono poi mostrate diverse ipotesi di progetto e, una volta determinata la disposizione degli spazi interni, vengono considerate due soluzioni simili, ma costruite con pacchetti costruttivi diversi. Nel Progetto A l’involucro dell’addizione ha una struttura in muratura, nel Progetto B la struttura è in X-lam. Le performance energetiche delle due proposte vengono confrontate tramite una simulazione attuata grazie all'utilizzo del software dinamico IES-VE. Viene valutata l’applicazione di energie rinnovabili, quali l’energia solare e eolica e l’apporto che queste possono dare al bilancio energetico. Infine viene fatta un’analisi dei costi, valutando possibili suddivisioni dei lavori e ipotizzando un piano di ritorno dell’investimento, anche in combinazione con l’applicazione di energie rinnovabili. Alla fine del progetto si trova una valutazione quantitativa dei miglioramenti dell’edificio e un’analisi critica dei limiti del progetto.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dato il recente avvento delle tecnologie NGS, in grado di sequenziare interi genomi umani in tempi e costi ridotti, la capacità di estrarre informazioni dai dati ha un ruolo fondamentale per lo sviluppo della ricerca. Attualmente i problemi computazionali connessi a tali analisi rientrano nel topic dei Big Data, con databases contenenti svariati tipi di dati sperimentali di dimensione sempre più ampia. Questo lavoro di tesi si occupa dell'implementazione e del benchmarking dell'algoritmo QDANet PRO, sviluppato dal gruppo di Biofisica dell'Università di Bologna: il metodo consente l'elaborazione di dati ad alta dimensionalità per l'estrazione di una Signature a bassa dimensionalità di features con un'elevata performance di classificazione, mediante una pipeline d'analisi che comprende algoritmi di dimensionality reduction. Il metodo è generalizzabile anche all'analisi di dati non biologici, ma caratterizzati comunque da un elevato volume e complessità, fattori tipici dei Big Data. L'algoritmo QDANet PRO, valutando la performance di tutte le possibili coppie di features, ne stima il potere discriminante utilizzando un Naive Bayes Quadratic Classifier per poi determinarne il ranking. Una volta selezionata una soglia di performance, viene costruito un network delle features, da cui vengono determinate le componenti connesse. Ogni sottografo viene analizzato separatamente e ridotto mediante metodi basati sulla teoria dei networks fino all'estrapolazione della Signature finale. Il metodo, già precedentemente testato su alcuni datasets disponibili al gruppo di ricerca con riscontri positivi, è stato messo a confronto con i risultati ottenuti su databases omici disponibili in letteratura, i quali costituiscono un riferimento nel settore, e con algoritmi già esistenti che svolgono simili compiti. Per la riduzione dei tempi computazionali l'algoritmo è stato implementato in linguaggio C++ su HPC, con la parallelizzazione mediante librerie OpenMP delle parti più critiche.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Il seguente elaborato è la diretta conseguenza di un periodo di stage, pari a cinque mesi, svolto presso l’azienda INTERTABA S.p.A., a Zola Predosa (BO). Il Dipartimento presso cui è stato svolto il tirocinio è l’Engineering. In particolare è stata compiuta un’analisi dei KPIs presenti e sono state proposte delle azioni migliorative. Il lavoro si è sviluppato in tre fasi. Nella prima fase è stata fatta un’analisi dei KPIs attuali per ciascuna funzione appartenente all’Engineering: Engineering Support, Project Engineering, Plant & Utilities Maintenance, Technical Warehouse e General Services. Nella seconda fase sono state descritte, per ciascuna funzione, alcune proposte migliorative per i KPIs presenti. Infine, per alcune funzioni, sono state proposte alcune iniziative in merito all’implementazione di nuovi KPIs.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Il lavoro valuta le prestazioni di 14 stati membri dell'Unione Europea, la quale attraverso la strategia Europa 2020 propone il raggiungimento di 8 target fondamentali per una crescita intelligente, sostenibile e inclusiva entro il 2020. I target riguardano l'occupazione, il tasso d'istruzione superiore, la percentuale di energia rinnovabile, il consumo energetico, le emissioni di gas serra, la spesa in ricerca e sviluppo, la povertà , il prematuro abbandono scolastico. A tali target corrispondono indicatori che sono annualmente censiti attraverso le autorità statistiche nazionali ed Eurostat. La misura della performance degli Stati è stata effettuata mediante il calcolo della distanza dal target di ciascun paese negli anni compresi tra il 2000 e il 2009. In particolare si è effettuato, adattandolo alle esigenze del lavoro, il calcolo della distanza euclidea e della distanza di Mahalanobis. Con le limitazioni dovute alla qualità dei dati disponibili e ad una difficoltà oggettiva di stabilire una linea di base, il lavoro ha permesso di dare un giudizio alla qualità dello sforzo compiuto da ciascun paese per raggiungere i target, fornendo un quadro analitico e articolato dei rapporti che intercorrono tra i diversi indicatori. In particolare è stato realizzato un modello relazionale basato su quattro indicatori che sono risultati essere correlati e legati da relazioni di tipo causale. I risultati possono essere sintetizzati come segue. La strategia Europa 2020 sembra partire da buone basi in quanto si è potuto osservare che in generale tutti gli stati membri osservati, Europa a 15, mostrano avere un miglioramento verso i loro rispettivi target dal 2005. Durante gli anni osservati si è notato che il range temporale 2005 e 2008 sembra essere stato il periodo dove gli stati hanno rallentato maggiormente la loro crescita di performance, con poi un buon miglioramento nell'anno finale. Questo miglioramento è stato indagato ed è risultato essere coincidente con l'anno di inizio della crisi economica. Inoltre si sono osservate buone relazioni tra il GDP e gli indicatori che hanno contribuito alla diminuzione delle performance, ma il range di riferimento non molto ampio, non ha permesso di definire la reale correlazione tra il GDP e il consumo energetico ed il GDP e l'investimento in ricerca e sviluppo.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Questa tesi affronta il tema dell'analisi della migrazione verso un ambiente cloud enterprise, con considerazioni sui costi e le performance rispetto agli ambienti di origine

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Questa tesi si propone di indagare l'impatto di alcuni scenari di sviluppo aeroportuale legati alla prevista implementazione di un sistema di trasporto APM - People Mover, in termini di performance del terminal passeggeri dell'Aeroporto `G.Marconi' di Bologna, per fornire soluzioni efficaci alla mobilità. Il background teorico è rappresentato dai risultati ottenuti dalla ricerca sperimentale e ormai acquisiti dalla trattazione classica per code markoviane avanzate (bulk queus), mentre il metodo messo a punto, del tutto generale,parte dagli arrivi schedulati e attraverso una serie di considerazioni econometriche costruisce una serie di scenari differenti,implementati poi attraverso la simulazione dinamica con l'utilizzo del software ARENA. Le principali grandezze di stato descrittive dei processi modellizzati ottenute in output vengono confrontate e valutate nel complesso, fornendo in prima approssimazione previsioni sull'efficacia del sistema previsto. Da ultimo, vengono proposti e confrontati i due approcci forniti tanto dalla manualistica di settore quanto da contributi di ricerca per arrivare a definire un dimensionamento di massima di strutture per la mobilità (una passerella di collegamento del terminal alla stazione APM) e una verifica della piattaforma per l'attesa ad essa contigua.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Questa tesi descrive la ricerca condotta tra l'autunno e l'inverno di quest'anno da un gruppo di ricercatori in didattica della matematica relativamente all'influenza che le variazioni redazionali di un quesito matematico hanno sulle performance degli studenti. Lo scopo della ricerca è quella di strutturare e validare una metodologia e uno strumento che permettano di individuare e quantificare l'influenza delle variazioni del testo sulle prestazioni dello studente. Si è sentita l'esigenza di condurre uno studio di questo tipo poichè è sempre più evidente il profondo legame tra il linguaggio e l'apprendimento della matematica. La messa a punto di questo strumento aprirebbe le porte a una serie di ricerche più approfondite sulle varie tipologie di variazioni numeriche e/o linguistiche finora individuate. Nel primo capitolo è presentato il quadro teorico di riferimento relativo agli studi condotti fino ad ora nell'ambito della didattica della matematica, dai quali emerge la grossa influenza che la componente linguistica ha sulla comprensione e la trasmissione della matematica. Si farà quindi riferimento alle ricerche passate volte all'individuazione e alla schematizzazione delle variazioni redazionali dei Word Problems. Nel secondo capitolo, invece si passerà alla descrizione teorica relativa allo strumento statistico utilizzato. Si tratta del modello di Rasch appartenente alla famiglia dei modelli statistici dell'Item Response Theory, particolarmente utilizzato nella ricerca in didattica. Il terzo capitolo sarà dedicato alla descrizione dettagliata della sperimentazione svolta. Il quarto capitolo sarà il cuore di questa tesi; in esso infatti verrà descritta e validata la nuova metodologia utilizzata. Nel quinto sarà eseguita un analisi puntuale di come lo strumento ha messo in evidenza le differenze per ogni item variato. Infine verranno tratte le conclusioni complessive dello studio condotto.