220 resultados para Cordel, Letteratura popolare, Brasile
Resumo:
Background: studi in letteratura mostrano come l'accelerometria stia diventando una pratica clinica (e non solo) molto utile sia in ambito diagnostico sia riabilitativo; molti di essi sfruttano i dati provenienti da più sensori inerziali posti su un soggetto e ne ricavano l'andamento accelerometrico dei vari segmenti corporei durante il movimento in esame. Obiettivo: caratterizzare il cammino di soggetti sani ed osservare quello di alcuni casi patologici, parametrizzando l'accelerazione Antero-Posteriore. Gli indici sono: il Range dell'accelerazione, la Simmetria sulle accelerazioni e sugli intervalli di tempo tra un appoggio al suolo ed il successivo, la Simmetria nel dominio delle frequenze. Strumenti e Metodi: 10 volontari clinicamente sani hanno svolto 5 prove a velocità Spontanea, Lenta e Lentissima con il sensore inerziale G-Walk (BTS Milano) all'altezza di L5. I dati, acquisiti mediante il software G-Studio, sono stati elaborati grazie a Matlab. Risultati: è definita una fascia di normalità per ogni velocità. Conclusioni: le differenze tra il cammino sano e quello patologico si manifestano nelle grandezze di Range ed Indice di Simmetria sulle accelerazioni. I due parametri che misurano la simmetria nel dominio dei tempi ed in quello delle frequenze sono invece sostanzialmente simili. Tale distinzione è importante in medicina, perchè permette di definire le cause di deficit motorio, il percorso chirurgico/riabilitativo da effettuare e l'entità del recupero funzionale.
Resumo:
In questa tesi viene considerato il problema dei trasporti con costi fissi (FCTP) che, assieme al Traveling Salesman Problem (TSP), è uno dei problemi nobili dell’ottimizzazione combinatoria. Esso generalizza il ben noto problema dei trasporti (TP) imponendo che il costo per spedire prodotti da un’origine ad una destinazione sia composto da un costo fisso ed un costo proporzionale alla quantità spedita. Il FCTP è stato formulato per la prima volta in un articolo di Hirsch e Dantzig (1968) ed è stato da allora oggetto di studio per la ricerca di nuovi e sempre migliori algoritmi di risoluzione. Nessuno dei metodi esatti fin ora pubblicati è in grado di risolvere istanze con più di 15 origini e 15 destinazioni. Solo recentemente, Roberti et al. (2013), in un paper in corso di pubblicazione, hanno presentato un metodo esatto basato su una nuova formulazione matematica del problema, il quale è in grado di risolvere istanze di FCTP con 70 origini e 70 destinazioni. La crescita esponenziale dello sforzo computazionale richiesto dai metodi esatti ne ha confinato l’applicazione a problemi di dimensioni ridotte. Tali limitazioni hanno portato allo studio e alla ricerca di approcci approssimativi, euristici e metaeuristici i quali sfruttano varie strategie di local search. Fra i molteplici metodi euristici presentati in letteratura, meritano particolare attenzione quelli di Sun et al. (1998) e Glover et al. (2005). Recentemente, Buson et al. (2013) hanno presentato un nuovo euristico che domina tutti i precedenti sui problemi test proposti in letteratura. In questa tesi viene presentato un approccio Tabu Search che migliora il metodo originalmente proposto da Sun et al. (1998). I risultati computazionali ottenuti con un codice prototipale indicano che l’algoritmo sviluppato è migliore del metodo originario di Sun et al. (1998) e competitivo con il più recente metodo proposto da Buson et al. (2013).
Resumo:
NAVA®, dall’inglese Neurally Adjusted Ventilatory Assist, è una tecnica di monitoraggio e di ventilazione e rappresenta una sofisticata innovazione tecnologica in quanto consente un’assistenza ventilatoria costantemente in armonia con le esigenze del paziente, grazie alla rilevazione diretta dell’attività elettrica del diaframma. Da un punto di vista pratico-operativo, NAVA è un modulo integrativo che si inserisce nelle apparecchiature di ventilazione già esistenti integrandone al meglio le funzionalità. A tale modulo è collegato un sondino nasogastrico nella cui parte distale vi sono elettrodi bipolari. Il sondino viene inserito nell’esofago vicino al diaframma e permette l’acquisizione del segnale Edi (Diaphragmatic Electrical Activity), relativo all’attività elettrica del diaframma. L’attività di quest ultimo è strettamente correlata alla dinamica respiratoria del paziente, in quanto il diaframma, contraendosi, determina il flusso d’aria all’interno delle vie aree. Il segnale Edi acquisito viene usato per interfacciarsi con il ventilatore e grazie speciali algoritmi, il segnale guida il ventilatore permettendo un’assistenza ventilatoria proporzionale e sincrona agli sforzi respiratori del paziente. NAVA è tra le nuove apparecchiature sanitarie ed elettromedicali che la Banca Popolare dell’Emilia Romagna ha recentemente donato al Centro Grandi Ustionati dell’Ospedale Bufalini di Cesena per un valore complessivo di oltre 120.000 euro. NAVA e gli altri strumenti donati sono apparecchiature di ultima generazione destinate a migliorare le possibilità di sopravvivenza dei pazienti più critici, con ustioni e ferite alla cute molto gravi, che necessitano di un’assistenza intensiva. In questo elaborato, nel Capitolo 1, viene presentata la Fisiologia dell’apparato respiratorio e a seguire, nel Capitolo 2, viene descritta la Ventilazione meccanica convenzionale, ancora oggi molto utilizzata. Successivamente, nel Capitolo 3 è illustrata la nuova modalità NAVA. Proseguendo, nel Capitolo 4 si apre un confronto tra le principali differenze tra la NAVA e le precedenti modalità di ventilazione. L’elaborato si conclude con la speranza che NAVA, un’innovazione senza precedenti, non sia limitata ad un investimento potenzialmente utile nel presente della terapia intensiva, ma che la ricerca ad essa correlata possa, in un imminente futuro, aprire la strada a nuove tecnologie ancora più efficienti nella salvaguardia dei pazienti in terapia intensiva.
Resumo:
In questo lavoro di tesi è stato affrontato uno studio mirato alla comprensione ed alla correlazione delle proprietà chimico-fisiche e morfologiche di catalizzatori a base di Pd/Pt supportati su allumina impiegati nella produzione di idrogeno mediante deidrogenazione di miscele complesse di idrocarburi contenenti elevati tenori di zolfo. La produzione di idrogeno mediante deidrogenazione parziale di fuel direttamente su aeromobili necessita di catalizzatori altamente performanti dei quali siano note tutte le caratteristiche in modo da prevedere, in un ampio margine di sicurezza, le possibili cause di malfunzionamento. L’applicabilità di materiali a base di Pd/Pt in questa reazione risiede nella loro capacità di resistere all’avvelenamento da zolfo, rivendicata in letteratura per reazioni di idrogenazione e della quale si sono trovate evidenze sperimentali in alcune prove preliminari svolte nello stesso ambito di ricerca. Le prove catalitiche hanno evidenziato che la deposizione su allumina dei due metalli in ragione di un rapporto molare Pd:Pt=2 con un carico di metalli complessivo del 2% in peso mostra i migliori risultati in termini di resistenza all’avvelenamento da zolfo e da deposizione di composti carboniosi.
Resumo:
In questo lavoro si è affrontata la definizione e la caratterizzazione di una misura di entropia di singolo nodo nell’ambito della teoria statistica dei network, per ottenere informazioni a livello di singolo nodo a fini di analisi e classificazione. Sono state introdotte e studiate alcune proprietà di questi osservabili in quanto la Network Entropy, precedentemente definita e utilizzata nello stesso contesto, fornisce un’informazione globale a livello dell’intero network. I risultati delle analisi svolte con questa definizione sono stati confrontati con una seconda definizione di entropia di singolo nodo proveniente dalla letteratura, applicando entrambe le misure allo stesso problema di caratterizzazione di due classi di nodi all’interno di un network
Resumo:
La sostituzione di materie prime provenienti da risorse fossili con biomasse rinnovabili, utilizzando un processo a basso impatto ambientale, è una delle più importanti sfide della "Green Chemistry". Allo stesso tempo, la sintesi di resine epossidiche fornisce la chiave per la realizzazione di materiali ad alto valore aggiunto. Tuttavia, ad oggi, il 90% della produzione di resine epossidiche è basato sull'uso di bisfenolo A, che ha effetti di xenoestrogeno, ed epicloridrina, tossica e cancerogena. Su queste basi, è stata individuata una strategia sintetica per la sintesi di prepolimeri innovativi per resine epossidiche, che utilizza come substrato di reazione diidrossibenzeni di origine naturale ed evita l'uso di epicloridrina e altri reagenti tossici o pericolosi. La suddetta strategia sintetica è basata sulla sequenza: allilazione dei diidrossibenzeni - epossidazione dei doppi legami ottenuti. In questa procedura non vengono utilizzati drastiche condizioni di reazione e il solvente è acqua, con una catalisi di trasferimento di fase o, in aggiunte di acetonitrile, in un sistema bifasico. La resa complessiva dei due “step” dipende dalla posizione dei due ossidrili nei diidrossibenzeni. Il reagente che porta la resa massima è l’idrochinone (1,4 diidrossibenzene), che, come riportato in letteratura, permette la formazione di resine epossidiche con proprietà simili alle resine di epicloridrina e bisfenolo A. The substitution of raw materials from fossil fuels with renewable biomass using a low environmental impact process is one of the greatest challenges of the "Green Chemistry". At the same time, the synthesis of epoxy resins provides the key to the realization of high added value materials. However, 90% of the production of epoxy resins is based on the use of bisphenol A, a xenoestrogen, and epichlorohydrin, that is toxic and carcinogenic. On these bases, a synthetic strategy for the synthesis of innovative prepolymers of epoxy resins, that uses dihydroxybenzenes of natural origin as reaction substrates and avoids the use of epichlorohydrin and other toxic or dangerous reagents has been identified. The above synthetic strategy is based on the sequence: allylation of dihydroxybenzenes - epoxidation of the double bonds obtained. In this procedure, drastic reaction conditions are dismissed and the solvent used is water with a phase transfer catalysis or, in addition, acetonitrile in a biphasic system. The overall yield of the two steps depends on the position of the two hydroxyls of the dihydroxybenzenes. The reagent that leads to the highest yield is hydroquinone (1,4 dihydroxybenzene), which, as reported in literature, allows the formation of epoxy resins with similar properties to the resins from bisphenol A and epichlorohydrin.
Resumo:
La stesura di questo elaborato di tesi trova le basi sull’articolo di Stergiopulos et al. “Determinants of stroke volume and systolic and diastolic aortic pressure” pubblicato sulla rivista americana American Journal of Physiology-Heart and Circulatory Physiology nel 1996. Si cerca di investigare sull’importanza che ricoprono alcuni parametri che descrivono il muscolo cardiaco e l’albero arterioso e sulla loro rispettiva influenza sulla pressione sistolica, pressione diastolica e sul volume di sangue eiettato in un battito, ovvero la gittata sistolica. Si procede con la descrizione in dettaglio della funzionalità cardiaca mediante il modello ad elastanza tempo variabile e il modello windkessel a tre elementi simulando così la contrazione ventricolare e l’albero arterioso sistemico. In dettaglio per quanto riguarda la struttura dell’elaborato è bene specificare che l’analisi teorica affrontata nei primi due capitoli ha l’obiettivo primario di: 1) chiarire i principali e caratteristici meccanismi che si trovano alla base della funzionalità cardiaca e procedere quindi con i richiami relativi alla fisiologia del sistema cardio-circolatorio facendo particolare attenzione al concetto di ciclo cardiaco, ciclo pressione-volume e fattori che determinano la funzionalità cardiaca in dettaglio; 2)illustrare quelli che sono i principali modelli di riferimento presenti in letteratura che descrivono la contrazione del ventricolo sinistro in termini di analisi pressione-volume ventricolari istantanei. Dal terzo capitolo in avanti si prosegue verso quello che è il vivo della trattazione dell’articolo di riferimento, nel capitolo appena citato si fa luce sui dettagli che caratterizzano il modello matematico utilizzato per approssimare al meglio il sistema cuore-sistema arterioso e sull’applicazione della teoria dell’analisi dimensionale mediante l’utilizzo del Teorema di Buckingham al fine di ricavare i parametri di interesse. Nel quarto capitolo si riportano i risultati dello studio con annessa validazione del modello e la sua applicazione rispetto al caso umano. Il quinto capitolo è sede della discussione dei risultati ottenuti cercando di far luce sull’universalità e applicabilità delle formule empiriche ottenute e su eventuali limitazioni e implicazioni riscontrabili. Tale elaborato si chiude con alcune conclusioni in merito allo studio effettuato.
Resumo:
A causa delle questioni economiche ed ambientali legate alla sostenibilità dei processi petrolchimici, recentemente l'industria chimica ha focalizzato il proprio interesse nello sviluppo di processi per la produzione di chemicals, che utilizzino materiali di partenza rinnovabili. L'etanolo, prodotto per via fermentativa, sembra essere uno dei bio-building block più promettenti e versatili e può essere utilizzato per numerose applicazioni. È noto da tempo che l’etanolo può reagire su catalizzatori costituiti da ossidi misti con caratteristiche acido-base a dare numerosi composti chimici tra cui acetaldeide, 1,3-butadiene, 1-butanolo e 2-butenale. Nonostante il lungo impiego dell’etanolo nell’industria chimica, il meccanismo di formazione di composti C4 a partire da etanolo è ancora però materia di dibattito. Il meccanismo generalmente accettato si basa sulle seguenti reazioni chiave: deidrogenazione di etanolo ad acetaldeide e condensazione aldolica di due molecole di acetaldeide. Tuttavia in letteratura sono riportate anche altre proposte alternative. In questo lavoro è stato studiato il processo di trasformazione di etanolo su catalizzatori a base di MgO e sistemi misti Mg/SiO, attraverso esperimenti di reattività condotti in un micro-impianto da laboratorio, al fine di fare chiarezza sul meccanismo di formazione di composti C4 a partire da etanolo. In particolare è stato condotto uno studio meccanicistico utilizzando MgO come catalizzatore modello, materiale che possiede esclusivamente proprietà basiche, ritenute essenziali per catalizzare la condensazione di molecole C2. Inoltre, è stata investigata l’influenza delle caratteristiche acido-base del catalizzatore sulla selettività del processo di conversione di etanolo, studiandone la reattività su materiali costituiti da ossidi misti Mg/Si/O, con diverso rapporto atomico tra i due cationi.
Resumo:
I limiti delle tecniche dialitiche attualmente in uso nella cura dell'insufficienza renale cronica hanno portato alla realizzazione di prototipi di reni bioartificiali totalmente impiantabili. Seguendo approcci diversi alcuni ricercatori americani tra cui Edward Jennings, ed il team composto da Shuvo Roy, William Fissel e David Humes, stanno sviluppando dei dispositivi che siano in grado di replicare tutte le principali funzioni renali. In questo lavoro di tesi viene descritto lo stato dell'arte di questi progetti con riferimento ad articoli pubblicati in letteratura.
Resumo:
Scopo del presente lavoro di tesi è lo studio dei processi di fotogenerazione e trasporto di carica in film sottili di Rubrene trasferiti su substrati differenti, attraverso un’analisi degli spettri di fotocorrente ottenuti in laboratorio. I cristalli sono studiati realizzando contatti ohmici mediante deposito di vapori di oro sul campione. Le prestazioni ottenute variano a seconda del substrato; i segnali di fotocorrente migliori derivano dai campioni su vetro. L’andamento qualitativo è il medesimo al variare dei cristalli, così come i valori di energia dei fotoni incidenti corrispondenti ai picchi massimi del segnale. Si evidenziano tuttavia distribuzioni di difetti leggermente differenti. Nell’analisi comparata tra gli spettri di assorbimento e fotocorrente si riscontra un comportamento antibatico; vari tentativi di simulazione e applicazione dei modelli finora noti in letteratura per i cristalli organici (sebbene non ve ne siano per i film sottili di Rubrene), mostrano la completa inapplicabilità degli stessi al presente caso di studio evidenziando la necessità di modelli teorici specificamente studiati per la nanoscala. Una ragionevole motivazione di tale scontro risiede proprio nel conflitto tra gli ordini di grandezza dei parametri delle strutture in esame e le leggi sulle quali si basano le analisi proposte in letteratura, incongruenza che non appare invece su scala micrometrica, ove tali modelli sono stati sviluppati.
Resumo:
La presente tesi tratta della fabbricazione e del funzionamento di transistors elettrochimici organici (OECTs) composti da fi�lm sottili di poly(3,4-ethylenedioxythiophene) disperso con polystyrenesulfonic acid, o PEDOT:PSS, oltre che del loro possibile utilizzo come sensori. La trattazione si apre con una panoramica sui polimeri conduttivi, siano essi puri o drogati, e sulle loro caratteristiche chimiche ed elettriche: diversi metodi di drogaggio consentono il loro utilizzo come semiconduttori. Tra questi polimeri, il PEDOT �e uno dei pi�u utilizzati poich�e presenta accessibilit�a d'uso e ottima stabilit�a nel suo stato drogato, pur risultando insolubile in acqua; per ovviare a questo problema lo si polimerizza con PSS. Le propriet�a di questo composto sono poi ampiamente discusse, soprattutto in ambito di applicazioni tecniche, per le quali �e neccessario che il polimero in soluzione sia depositato su un substrato. A questo scopo vengono presentate le principali techiche che consentono la deposizione, permettendo di creare fil�lm sottili di materiale da utilizzarsi, nell'ambito di questa tesi, come gate e canale dei transistors elettrochimici. A seguire viene esposta la struttura degli OECTs e spiegato il loro funzionamento, modellizzando i dispositivi con un semplice circuito elettrico. Il confronto dei meno noti OECTs con i meglio conosciuti transistors a eff�etto campo semplifi�ca la comprensione del funzionamento dei primi, i quali sono rilevanti ai fi�ni di questa trattazione per il loro possibile funzionamento come sensori. In seguito alla spiegazione teorica, vengono illustrati i metodi seguiti per la deposizione di �film sottili di PEDOT:PSS tramite Spin Coating e per la fabbricazione degli OECTs su cui sono state eff�ettuate le misure, le quali sono state scelte e presentate in base ai risultati gi�a ottenuti in letteratura e a seconda dei dati ritenuti necessari alla caratterizzazione del transistor elettrochimico nell'ottica di un suo possibile utilizzo come sensore. Perci�o sono state eseguite misure amperometriche in funzione delle tensioni di gate e di drain, alternatamente tenendo costante una e variando l'altra, oltre che in funzione della concentrazione di elettrolita, dell'area del canale e del tempo. In conclusione sono presentati i dati sperimentali ottenuti ed una loro analisi.
Resumo:
Il problema della consegna di prodotti da un deposito/impianto ai clienti mediante una flotta di automezzi è un problema centrale nella gestione di una catena di produzione e distribuzione (supply chain). Questo problema, noto in letteratura come Vehicle Routing Problem (VRP), nella sua versione più semplice consiste nel disegnare per ogni veicolo disponibile presso un dato deposito aziendale un viaggio (route) di consegna dei prodotti ai clienti, che tali prodotti richiedono, in modo tale che (i) la somma delle quantità richieste dai clienti assegnati ad ogni veicolo non superi la capacità del veicolo, (ii) ogni cliente sia servito una ed una sola volta, (iii) sia minima la somma dei costi dei viaggi effettuati dai veicoli. Il VRP è un problema trasversale ad una molteplicità di settori merceologici dove la distribuzione dei prodotti e/o servizi avviene mediante veicoli su gomma, quali ad esempio: distribuzione di generi alimentari, distribuzione di prodotti petroliferi, raccolta e distribuzione della posta, organizzazione del servizio scuolabus, pianificazione della manutenzione di impianti, raccolta rifiuti, etc. In questa tesi viene considerato il Multi-Trip VRP, in cui ogni veicolo può eseguire un sottoinsieme di percorsi, chiamato vehicle schedule (schedula del veicolo), soggetto a vincoli di durata massima. Nonostante la sua importanza pratica, il MTVRP ha ricevuto poca attenzione in letteratura: sono stati proposti diversi metodi euristici e un solo algoritmo esatto di risoluzione, presentato da Mingozzi, Roberti e Toth. In questa tesi viene presentato un metodo euristico in grado di risolvere istanze di MTVRP in presenza di vincoli reali, quali flotta di veicoli non omogenea e time windows. L’euristico si basa sul modello di Prins. Sono presentati inoltre due approcci di local search per migliorare la soluzione finale. I risultati computazionali evidenziano l’efficienza di tali approcci.
Resumo:
In questo lavoro di tesi si studiano quattro sistemi precipitanti di carattere principalmente convettivo che hanno interessato la regione Emilia-Romagna tra la primavera 2012 e l'inverno 2013. Si fornisce una trattazione che prevede l'utilizzo di due strumenti basati sulla tecnologia radar: il pluviometro disdrometro a microonde PLUDIX e il radar polarimetrico in banda C di San Pietro Capofiume (SPC). Gli strumenti sono posizionati ad una distanza di circa 30 km in linea d'aria. PLUDIX, situato al Consiglio Nazionale delle Ricerche (CNR) di Bologna, rileva le idrometeore al suolo e fornisce informazioni pluviometriche e disdrometriche sulla precipitazione in corso. Il radar SPC analizza echi provenienti dall'atmosfera circostante, fino alla distanza di 112.5 km e all'elevazione di 13° rispetto a terra. Si confrontano i profili temporali di intensità di precipitazione ottenuti da PLUDIX con quelli ricavati dalle variabili polarimetriche radar, che permettono di meglio interpretare l'evoluzione temporale degli eventi. Si procede, inoltre, alla classificazione delle idrometeore in atmosfera. A tal fine si implementa un algoritmo di classificazione polarimetrico basato sul lavoro di Park et al. (2009) e modificato in funzione della letteratura scientifica al riguardo. La classificazione di idrometeore che più interessa è quella relativa alle quote radar sulla verticale del CNR, che può essere messa a confronto con le evidenze disdrometriche da PLUDIX al suolo. I risultati sono soddisfacenti e mostrano che i due strumenti vedono gli stessi fenomeni da due punti di vista. L'analisi combinata dei dati eterogenei da PLUDIX e dal radar SPC permette di ricavare importanti informazioni sui processi fisici in nube e sull'evoluzione temporale e spaziale dei sistemi precipitanti.
Resumo:
La tesi affronta il problema della ricostruzione di immagini di tomosintesi, problema che appartiene alla classe dei problemi inversi mal posti e che necessita di tecniche di regolarizzazione per essere risolto. Nel lavoro svolto sono presenti principalmente due contributi: un'analisi del modello di ricostruzione mediante la regolarizzazione con la norma l1; una valutazione dell'efficienza di alcuni metodi tra quelli che in letteratura costituiscono lo stato dell'arte per quanto riguarda i metodi basati sulla norma l1, ma che sono in genere applicati a problemi di deblurring, dunque non usati per problemi di tomosintesi.
Resumo:
L’approccio performance-based nell’Ingegneria sismica è una metodologia di progetto che tiene esplicitamente in conto la performance dell’edificio tra i criteri progettuali. Nell’ambito dei metodi PBEE (Performance-Based Earthquake Engineering) di seconda generazione, quello proposto dal PEER (Pacific Earthquake Engineering Research Center) risulta essere il più diffuso. In esso la performance dell’edificio oggetto di studio viene valutata in termini quantitativi secondo le 3D’s (dollars, deaths, downtime – soldi, decessi, inutilizzo), quantità di notevole interesse per l’utente finale. Il metodo si compone di quattro step, indipendenti tra loro fino alla sintesi finale. Essi sono: l’analisi di pericolosità, l’analisi strutturale, l’analisi di danno, l’analisi delle perdite o di loss. Il risultato finale è la curva di loss, che assegna ad ogni possibile perdita economica conseguente all’evento sismico una probabilità di superamento nell’arco temporale di riferimento. Dopo la presentazione del metodo PEER, si è provveduto ad una sua applicazione su di un caso di studio, nella fattispecie un telaio piano di quattro campate, multipiano, in calcestruzzo armato, costruito secondo le norme del ’92. Per l’analisi di pericolosità si è fatto ricorso alle mappe di pericolosità disponibili sul sito INGV, mentre per l’analisi strutturale si è utilizzato il software open-source OpenSees. Le funzioni di fragilità e quelle di loss sono state sviluppate facendo riferimento alla letteratura scientifica, in particolare il bollettino Fib numero 68 “Probabilistic performance-based seismic design”. In questa sede ci si è concentrati unicamente sulla stima delle perdite economiche, tralasciando le altre due variabili decisionali. Al termine del procedimento si è svolta un’analisi di sensitività per indagare quali parametri influenzino maggiormente la curva di loss. Data la curva di pericolosità, il legame EDP(IM) e la deformazione ultima a collasso risultano essere i più rilevanti sul risultato dell’analisi.