929 resultados para polinomi trasposizione didattica definizione schemi di definizione
Resumo:
Questa tesi descrive le fasi della progettazione e dell'implementazione di una applicazione mobile per il supporto alla didattica del corso di Programmazione del CdL di Ingegneria e Scienze Informatiche del Campus di Cesena. Il progetto ha lo scopo di mettere a disposizione degli studenti e dei docenti una applicazione per dispositivi Android che permetta di usufruire dei servizi attualmente forniti dal portale ufficiale del corso. Le funzionalità principali consistono nell'accesso ai materiali didattici e nella gestione delle consegne di esercizi propedeutici alla prova finale per quanto concerne gli studenti; ai professori è invece fornita la possibilità di eseguire la correzione degli elaborati e seguirne lo stato di avanzamento. Visto l'elevato numero di utenti che utilizzava il portale esistente tramite tablet e smartphone si è ritenuto necessario lo sviluppo di questo prodotto che possa fornire una user experience ottimizzata per questi dispositivi. Durante la progettazione è stata data particolare importanza all'ottimizzazione delle prestazioni, sfruttando gli strumenti più recenti forniti agli sviluppatori, e alla conformità con i principali design pattern della programmazione per dispositivi Android. Allo scopo di fornire un prodotto utilizzabile dalla maggior parte dell'utenza potenziale, si è inoltre data priorità alla compatibilità con tutti i dispositivi e le versioni del sistema operativo, senza rinunciare ad alcuna funzionalità. Il risultato del lavoro consiste in un prototipo pienamente funzionante e utilizzabile che mira a fornire una base stabile su cui eseguire future evoluzioni.
Resumo:
Introduzione:l’interferone (IFN) usato per l’eradicazione del virus dell’Epatite C, induce effetti collaterali anche riferibili alla sfera psichica. I dati sugli eventi avversi di tipo psichiatrico dei nuovi farmaci antivirali (DAA) sono limitati. Lo scopo di questo studio è di valutare lo sviluppo di effetti collaterali di tipo psichiatrico in corso di due distinti schemi di trattamento: IFN-peghilato e ribavirina [terapia duplice (standard o SOC)]; DAA in associazione a IFN-peghilato e ribavirina (terapia triplice). Metodi: pazienti HCV+ consecutivi seguiti presso l’Ambulatorio delle Epatiti Croniche della Semeiotica Medica del Dipartimento di Scienze Mediche e Chirurgiche dell’Università di Bologna in procinto di intraprendere un trattamento antivirale a base di IFN, sottoposti ad esame psicodiagnostico composto da intervista clinica semistrutturata e test autosomministrati: BDI, STAXI-2, Hamilton Anxiety Scale, MMPI – 2. Risultati: Sono stati arruolati 84 pazienti, 57/84 (67.9%) nel gruppo in triplice e 27/84 nel gruppo SOC. Quasi tutti i pazienti arruolati hanno eseguito l’intervista clinica iniziale (82/84; 97.6%), mentre scarsa è stata l’aderenza ai test (valori missing>50%). Ad eccezione dell’ansia, la prevalenza di tutti gli altri disturbi (irritabilità, astenia, disfunzioni neurocognitive, dissonnia) aumentava in corso di trattamento. In corso di terapia antivirale 43/84 (51.2%) hanno avuto bisogno di usufruire del servizio di consulenza psichiatrica e 48/84 (57.1%) hanno ricevuto una psicofarmacoterapia di supporto, senza differenze significative fra i due gruppi di trattamento. Conclusioni : uno degli elementi più salienti dello studio è stata la scarsa aderenza ai test psicodiagnostici, nonostante l’elevata prevalenza di sintomi psichiatrici. I risultati di questo studio oltre ad evidenziare l’importanza dei sintomi psichiatrici in corso di trattamento e la rilevanza della consulenza psicologica e psichiatrica per consentire di portare a termine il ciclo terapeutico previsto (migliorandone l’efficacia), ha anche dimostrato che occorre ripensare gli strumenti diagnostici adattandoli probabilmente a questo specifico target.
Resumo:
Richiamo di elementi di algebra, tra cui: polinomi, ordini monomiali e base di Gröbner per ideali e sottomoduli con anche algoritmo FGLM. Descrizione dei codici, dei codici lineari, codifica e decodifica, matrice generatrice, matrice forma standard, matrice di controllo parità, codici ciclici con corrispondenza con ideali e polinomi generatori. Codice Reed-Solomon caso particolare di codice ciclico. Codici ciclici m-dimensionali e codifica sistematica con basi di Gröbner. Algoritmo di decodifica per Reed-Solomon con soluzione chiave e utilizzando basi di Gröbner sui sottomoduli.
Resumo:
Le superfici di suddivisione sono un ottimo ed importante strumento utilizzato principalmente nell’ambito dell’animazione 3D poichè consentono di definire superfici di forma arbitraria. Questa tecnologia estende il concetto di B-spline e permette di avere un’estrema libertà dei vincoli topologici. Per definire superfici di forma arbitraria esistono anche le Non-Uniform Rational B-Splines (NURBS) ma non lasciano abbastanza libertà per la costruzione di forme libere. Infatti, a differenza delle superfici di suddivisione, hanno bisogno di unire vari pezzi della superficie (trimming). La tecnologia NURBS quindi viene utilizzata prevalentemente negli ambienti CAD mentre nell’ambito della Computer Graphics si è diffuso ormai da più di 30 anni, l’utilizzo delle superfici di suddivisione. Lo scopo di questa tesi è quello di riassumere, quindi, i concetti riguardo questa tecnologia, di analizzare alcuni degli schemi di suddivisione più utilizzati e parlare brevemente di come questi schemi ed algoritmi vengono utilizzati nella realt`a per l’animazione 3D.
Resumo:
L’obbiettivo di questa tesi è quello di analizzare le conseguenze della scelta del frame (Jordan o Einstein) nel calcolo delle proprietà degli spettri primordiali generati dall’inflazione ed in particolare dell’osservabile r (rapporto tensore su scalare) al variare del potenziale del campo che genera l’espansione accelerata. Partendo dalla descrizione della teoria dell’inflazione in relatività generale, focalizzando l’attenzione sui motivi che hanno portato all’introduzione di questa teoria, vengono presentate le tecniche di utilizzo comune per lo studio della dinamica omogenea (classica) inflazionaria e di quella disomogenea (quantistica). Una particolare attenzione viene rivolta ai metodi di approssimazione che è necessario adottare per estrarre predizioni analitiche dai modelli inflazionari per poi confrontarle con le osservazioni. Le tecniche introdotte vengono poi applicate ai modelli di inflazione con gravità indotta, ovvero ad una famiglia di modelli con accoppiamento non minimale tra il campo scalare inflatonico e il settore gravitazionale. Si porrà attenzione alle differenze rispetto ai modelli con accoppiamento minimale, e verrà studiata la dinamica in presenza di alcuni potenziali derivanti dalla teoria delle particelle e diffusi in letteratura. Il concetto di “transizione tra il frame di Jordan e il frame di Einstein” viene illustrato e le sue conseguenze nel calcolo approssimato del rapporto tensore su scalare sono discusse. Infine gli schemi di approssimazione proposti vengono analizzati numericamente. Risulterà che per due dei tre potenziali presentati i metodi di approssimazione sono più accurati nel frame di Einstein, mentre per il terzo potenziale i due frames portano a risultati analitici similmente accurati.
Resumo:
La presente tesi descrive l’implementazione in Java di un algoritmo per il ragionamento giuridico che cattura due sue importanti peculiarità: la defeasibility del ragionamento normativo e il concetto di tempo. “Defeasible” significa “ritrattabile” e sta ad indicare, appunto, quegli schemi di ragionamento nei quali è possibile rivedere o ritrattare le conclusioni tratte precedentemente. Il tempo è essenziale per un’accurata rappresentazione degli scenari presenti nel mondo reale e in particolare per gli scenari giuridici. I profili temporali delle norme sono essenzialmente due: (i) tempo esterno della norma, cioè il periodo durante il quale la norma è valida cioè appartiene al sistema giuridico; (ii) tempo interno della norma che fa riferimento al periodo in cui la norma si applica. In particolare quest’ultimo periodo di tempo coincide con il periodo in cui le condizioni presenti nella norma devono presentarsi affinché essa produca i suoi effetti. Inoltre, nella tesi viene presentata un’estensione della logica defeasible in grado di distinguere tra regole con effetti persistenti, che valgono non solo per l’istante in cui si verificano le premesse ma anche per ogni istante successivo, e regole con effetti transitori, che valgono per un singolo istante. L’algoritmo presentato in questa tesi presenta una complessità lineare nelle dimensioni della teoria in ingresso e può interagire con le applicazioni del web semantico poiché elabora teorie scritte in Rule-ML, un linguaggio basato su XML per la rappresentazione di regole.
Resumo:
Con il termine Smart Grid si intende una rete urbana capillare che trasporta energia, informazione e controllo, composta da dispositivi e sistemi altamente distribuiti e cooperanti. Essa deve essere in grado di orchestrare in modo intelligente le azioni di tutti gli utenti e dispositivi connessi al fine di distribuire energia in modo sicuro, efficiente e sostenibile. Questo connubio fra ICT ed Energia viene comunemente identificato anche con il termine Smart Metering, o Internet of Energy. La crescente domanda di energia e l’assoluta necessità di ridurre gli impatti ambientali (pacchetto clima energia 20-20-20 [9]), ha creato una convergenza di interessi scientifici, industriali e politici sul tema di come le tecnologie ICT possano abilitare un processo di trasformazione strutturale di ogni fase del ciclo energetico: dalla generazione fino all’accumulo, al trasporto, alla distribuzione, alla vendita e, non ultimo, il consumo intelligente di energia. Tutti i dispositivi connessi, diventeranno parte attiva di un ciclo di controllo esteso alle grandi centrali di generazione così come ai comportamenti dei singoli utenti, agli elettrodomestici di casa, alle auto elettriche e ai sistemi di micro-generazione diffusa. La Smart Grid dovrà quindi appoggiarsi su una rete capillare di comunicazione che fornisca non solo la connettività fra i dispositivi, ma anche l’abilitazione di nuovi servizi energetici a valore aggiunto. In questo scenario, la strategia di comunicazione sviluppata per lo Smart Metering dell’energia elettrica, può essere estesa anche a tutte le applicazioni di telerilevamento e gestione, come nuovi contatori dell’acqua e del gas intelligenti, gestione dei rifiuti, monitoraggio dell’inquinamento dell’aria, monitoraggio del rumore acustico stradale, controllo continuo del sistema di illuminazione pubblico, sistemi di gestione dei parcheggi cittadini, monitoraggio del servizio di noleggio delle biciclette, ecc. Tutto ciò si prevede possa contribuire alla progettazione di un unico sistema connesso, dove differenti dispositivi eterogenei saranno collegati per mettere a disposizione un’adeguata struttura a basso costo e bassa potenza, chiamata Metropolitan Mesh Machine Network (M3N) o ancora meglio Smart City. Le Smart Cities dovranno a loro volta diventare reti attive, in grado di reagire agli eventi esterni e perseguire obiettivi di efficienza in modo autonomo e in tempo reale. Anche per esse è richiesta l’introduzione di smart meter, connessi ad una rete di comunicazione broadband e in grado di gestire un flusso di monitoraggio e controllo bi-direzionale esteso a tutti gli apparati connessi alla rete elettrica (ma anche del gas, acqua, ecc). La M3N, è un’estensione delle wireless mesh network (WMN). Esse rappresentano una tecnologia fortemente attesa che giocherà un ruolo molto importante nelle futura generazione di reti wireless. Una WMN è una rete di telecomunicazione basata su nodi radio in cui ci sono minimo due percorsi che mettono in comunicazione due nodi. E’ un tipo di rete robusta e che offre ridondanza. Quando un nodo non è più attivo, tutti i rimanenti possono ancora comunicare tra di loro, direttamente o passando da uno o più nodi intermedi. Le WMN rappresentano una tipologia di rete fondamentale nel continuo sviluppo delle reti radio che denota la divergenza dalle tradizionali reti wireless basate su un sistema centralizzato come le reti cellulari e le WLAN (Wireless Local Area Network). Analogamente a quanto successo per le reti di telecomunicazione fisse, in cui si è passati, dalla fine degli anni ’60 ai primi anni ’70, ad introdurre schemi di rete distribuite che si sono evolute e man mano preso campo come Internet, le M3N promettono di essere il futuro delle reti wireless “smart”. Il primo vantaggio che una WMN presenta è inerente alla tolleranza alla caduta di nodi della rete stessa. Diversamente da quanto accade per una rete cellulare, in cui la caduta di una Base Station significa la perdita di servizio per una vasta area geografica, le WMN sono provviste di un’alta tolleranza alle cadute, anche quando i nodi a cadere sono più di uno. L'obbiettivo di questa tesi è quello di valutare le prestazioni, in termini di connettività e throughput, di una M3N al variare di alcuni parametri, quali l’architettura di rete, le tecnologie utilizzabili (quindi al variare della potenza, frequenza, Building Penetration Loss…ecc) e per diverse condizioni di connettività (cioè per diversi casi di propagazione e densità abitativa). Attraverso l’uso di Matlab, è stato quindi progettato e sviluppato un simulatore, che riproduce le caratteristiche di una generica M3N e funge da strumento di valutazione delle performance della stessa. Il lavoro è stato svolto presso i laboratori del DEIS di Villa Grifone in collaborazione con la FUB (Fondazione Ugo Bordoni).
Resumo:
Il lavoro è dedicato all'analisi fisica e alla modellizzazione dello strato limite atmosferico in condizioni stabili. L'obiettivo principale è quello di migliorare i modelli di parametrizzazione della turbulenza attualmente utilizzati dai modelli meteorologici a grande scala. Questi modelli di parametrizzazione della turbolenza consistono nell' esprimere gli stress di Reynolds come funzioni dei campi medi (componenti orizzontali della velocità e temperatura potenziale) usando delle chiusure. La maggior parte delle chiusure sono state sviluppate per i casi quasi-neutrali, e la difficoltà è trattare l'effetto della stabilità in modo rigoroso. Studieremo in dettaglio due differenti modelli di chiusura della turbolenza per lo strato limite stabile basati su assunzioni diverse: uno schema TKE-l (Mellor-Yamada,1982), che è usato nel modello di previsione BOLAM (Bologna Limited Area Model), e uno schema sviluppato recentemente da Mauritsen et al. (2007). Le assunzioni delle chiusure dei due schemi sono analizzate con dati sperimentali provenienti dalla torre di Cabauw in Olanda e dal sito CIBA in Spagna. Questi schemi di parametrizzazione della turbolenza sono quindi inseriti all'interno di un modello colonnare dello strato limite atmosferico, per testare le loro predizioni senza influenze esterne. Il confronto tra i differenti schemi è effettuato su un caso ben documentato in letteratura, il "GABLS1". Per confermare la validità delle predizioni, un dataset tridimensionale è creato simulando lo stesso caso GABLS1 con una Large Eddy Simulation. ARPS (Advanced Regional Prediction System) è stato usato per questo scopo. La stratificazione stabile vincola il passo di griglia, poichè la LES deve essere ad una risoluzione abbastanza elevata affinchè le tipiche scale verticali di moto siano correttamente risolte. Il confronto di questo dataset tridimensionale con le predizioni degli schemi turbolenti permettono di proporre un insieme di nuove chiusure atte a migliorare il modello di turbolenza di BOLAM. Il lavoro è stato compiuto all' ISAC-CNR di Bologna e al LEGI di Grenoble.
Resumo:
Le ragioni della delocalizzazione sono molteplici e di differente natura. Si delocalizza, in primo luogo, per ragioni di stampo economico, finanziario eccetera, ma questa spinta naturale alla delocalizzazione è controbilanciata, sul piano strettamente tributario, dall’esigenza di preservare il gettito e da quella di controllare la genuinità della delocalizzazione medesima. E’ dunque sul rapporto tra “spinte delocalizzative” dell’impresa, da un lato, ed esigenze “conservative” del gettito pubblico, dall’altro, che si intende incentrare il presente lavoro. Ciò alla luce del fatto che gli strumenti messi in campo dallo Stato al fine di contrastare la delocalizzazione (più o meno) artificiosa delle attività economiche devono fare i conti con i principi comunitari introdotti con il Trattato di Roma e tratteggiati negli anni dalla giurisprudenza della Corte di Giustizia. In quest’ottica, la disciplina delle CFC costituisce un ottimo punto di partenza per guardare ai fenomeni di produzione transnazionale della ricchezza e agli schemi di ordine normativo preposti alla tassazione di codesta ricchezza. Ed infatti, le norme sulle CFC non fanno altro che omogeneizzare un sistema che, altrimenti, sarebbe lasciato alla libera iniziativa degli uffici fiscali. Tale “normalizzazione”, peraltro, giustifica le esigenze di apertura che sono incanalate nella disciplina degli interpelli disapplicativi. Con specifico riferimento alla normativa CFC, assumono particolare rilievo la libertà di stabilimento ed il principio di proporzionalità anche nella prospettiva del divieto di abuso del diritto. L’analisi dunque verterà sulla normativa CFC italiana con l’intento di comprendere se codesta normativa, nelle sue diverse sfaccettature, possa determinare situazioni di contrasto con i principi comunitari. Ciò anche alla luce delle recenti modifiche introdotte dal legislatore con il d.l. 78/2009 in un quadro normativo sempre più orientato a combattere le delocalizzazioni meramente fittizie.
Resumo:
Questo lavoro costituisce un'interfaccia tra la fisica dei materiali e la biologia; sfruttando le particolari proprietà del polimero conduttore poli(3,4-etilenediossitiofene) drogato con poli(stirene sulfonato) (PSS), o PEDOT:PSS, sono stati sviluppati e realizzati substrati per colture cellulari. Tale composto è infatti un polimero organico biocompatibile, caratterizzato da proprietà fisiche che ben si prestano ad applicazioni in campo biologico. Vengono inizialmente descritte le caratteristiche generali e gli schemi di classificazione dei polimeri, per analizzare quindi in dettaglio i polimeri conduttori e la loro modalità di drogaggio. Si presenta quindi il PEDOT:PSS, del quale vengono descritte le proprietà, in particolare ci si sofferma sulle quelle termiche, meccaniche ed elettriche. Il primo capitolo si conclude con la presentazione delle applicazioni bioelettroniche del PEDOT:PSS, illustrando le principali applicazioni nella ricerca biologica e descrivendo le caratteristiche che ne hanno fatto uno dei composti più utilizzati per questo tipo di applicazioni. Nel secondo capitolo, per la parte sperimentale, sono stati descritti approfonditamente gli strumenti e i materiali utilizzati; in particolare vengono spiegati dettagliatamente il procedimento di spin-coating per la produzione di film sottili e le tecniche AFM (Atomic Force Microscopy) per l'analisi della morfologia superficiale. Nel terzo capitolo vengono esposte le tecniche sperimentali impiegate: è stata sviluppata una procedura di produzione ripetibile, grazie alla quale sono stati realizzati dei campioni, per i quali poi è stata misurata la rugosità. I risultati conseguiti sono stati infine correlati con l'analisi della proliferazione cellulare, illustrata chiaramente dalle immagini ottenute al microscopio ottico, che rivelano l'adesione e la moltiplicazione cellulare sui substrati di PEDOT:PSS.
Resumo:
Lo scopo di questa tesi è di esporre il cuore centrale della teoria di Galois, la risolubilità per radicali delle equazioni polinomiali nel caso in cui il campo di partenza abbia caratteristica 0. L’operato è articolato in tre capitoli. Nel primo capitolo vengono introdotte le nozioni fondamentali della teoria dei campi e della teoria di Galois. Nel secondo capitolo, si sviluppa il problema della risolubilità per radicali. Vengono prima introdotti i gruppi risolubili e alcune loro particolarità. Poi vengono introdotte le nozioni di estensioni radicali e risolubili e relativi teoremi. Nel paragrafo 2.3 viene dimostrato il teorema principale della teoria, il teorema di Galois, che identifica la risolubilità del gruppo di Galois con la risolubilità dell’estensione. Infine l’ultimo paragrafo si occupa della risolubilità dei polinomi, sfruttando il loro campo di spezzamento. Nel terzo ed ultimo capitolo, viene discussa la risolubilita` dell’equazione polinomiale generale di grado n. Vengono inoltre riportati diversi esempi ed infine viene presentato un esempio di estensione di Galois di grado primo p non risolubile in caratteristica p.
Resumo:
Il lavoro di ricerca è rivolto ad indagare l’emersione di schemi di variazione comuni all’arte e al design, limitatamente al contesto italiano e in un arco di tempo che va dalla metà degli anni Sessanta del secolo scorso a oggi. L’analisi vuole rintracciare, mediante l’applicazione della metodologia fenomenologica, un sentire condiviso tra le due discipline e, nel pieno rispetto dei relativi linguaggi e con nessuna volontà di sudditanza degli uni rispetto agli altri, individuare i rapporti di corrispondenza omologica capaci di mettere in luce lo spirito del tempo che le ha generate. La ricerca si pone l’obiettivo di estendere gli studi sul contemporaneo attraverso un’impostazione che intende applicare gli strumenti metodologici della critica d’arte all’evoluzione stilistica delle tendenze del design italiano. Non si è voluto redigere una “storia” del design italiano ma, considerata anche l’ampiezza dell’argomento, si è necessariamente proceduto a delimitare il territorio di applicazione scegliendo di prendere in considerazione il solo settore del design dell’arredo. Si è dunque optato per una visione globale delle vicende del design del prodotto, tesa ad indagare gli snodi principali, concentrando pertanto l’analisi su alcuni protagonisti della cultura del progetto, ossia su quelle figure risultate dominanti nel proprio tempo perché capaci con il loro lavoro di dare un contribuito determinante alla comprensione delle fasi evolutive del design italiano. Gli strumenti utili a condurre l’analisi provengono principalmente dalla metodologia binaria individuata dallo storico dell’arte Heinrich Wölfflin e dagli studi di Renato Barilli, il cui impianto culturologico ha fornito un indispensabile contributo al processo di sistematizzazione dei meccanismi di variazione interni alle arti; sia quelli di tipo orizzontale, di convergenza reciproca con gli altri saperi, che di tipo verticale, in rapporto cioè con le scoperte scientifiche e tecnologiche della coeva cultura materiale.
Resumo:
Il progetto di tesi riguarda principalmente la progettazione di moderni sistemi wireless, come 5G o WiGig, operanti a onde millimetriche, attraverso lo studio di una tecnica avanzata detta Beamforming, che, grazie all'utilizzo di antenne direttive e compatte, permette di superare limiti di link budget dovuti alle alte frequenze e introdurre inoltre diversità spaziale alla comunicazione. L'obiettivo principale del lavoro è stato quello di valutare, tramite simulazioni numeriche, le prestazioni di alcuni diversi schemi di Beamforming integrando come tool di supporto un programma di Ray Tracing capace di fornire le principali informazioni riguardo al canale radio. Con esso infatti è possibile sia effettuare un assessment generale del Beamforming stesso, ma anche formulare i presupposti per innovative soluzioni, chiamate RayTracing-assisted- Beamforming, decisamente promettenti per futuri sviluppi così come confermato dai risultati.
Resumo:
Questa tesi descrive la ricerca condotta tra l'autunno e l'inverno di quest'anno da un gruppo di ricercatori in didattica della matematica relativamente all'influenza che le variazioni redazionali di un quesito matematico hanno sulle performance degli studenti. Lo scopo della ricerca è quella di strutturare e validare una metodologia e uno strumento che permettano di individuare e quantificare l'influenza delle variazioni del testo sulle prestazioni dello studente. Si è sentita l'esigenza di condurre uno studio di questo tipo poichè è sempre più evidente il profondo legame tra il linguaggio e l'apprendimento della matematica. La messa a punto di questo strumento aprirebbe le porte a una serie di ricerche più approfondite sulle varie tipologie di variazioni numeriche e/o linguistiche finora individuate. Nel primo capitolo è presentato il quadro teorico di riferimento relativo agli studi condotti fino ad ora nell'ambito della didattica della matematica, dai quali emerge la grossa influenza che la componente linguistica ha sulla comprensione e la trasmissione della matematica. Si farà quindi riferimento alle ricerche passate volte all'individuazione e alla schematizzazione delle variazioni redazionali dei Word Problems. Nel secondo capitolo, invece si passerà alla descrizione teorica relativa allo strumento statistico utilizzato. Si tratta del modello di Rasch appartenente alla famiglia dei modelli statistici dell'Item Response Theory, particolarmente utilizzato nella ricerca in didattica. Il terzo capitolo sarà dedicato alla descrizione dettagliata della sperimentazione svolta. Il quarto capitolo sarà il cuore di questa tesi; in esso infatti verrà descritta e validata la nuova metodologia utilizzata. Nel quinto sarà eseguita un analisi puntuale di come lo strumento ha messo in evidenza le differenze per ogni item variato. Infine verranno tratte le conclusioni complessive dello studio condotto.