499 resultados para giochi favorevoli e non favorevoli criterio di Kelly


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il Diabete, modello paradigmatico delle malattie croniche, sta assumendo negli ultimi anni le proporzioni di una pandemia, che non ha intenzione di arrestarsi, ma del quale, con l’aumento dei fattori di rischio, aumentano prevalenza e incidenza. Secondo stime autorevoli il numero delle persone con diabete nel 2035 aumenterà fino a raggiungere i 382 milioni di casi. Una patologia complessa che richiede lo sforzo di una vasta gamma di professionisti, per ridurre in futuro in maniera significativa i costi legati a questa patologia e nel contempo mantenere e addirittura migliorare gli standard di cura. Una soluzione è rappresentata dall'impiego delle ICT, Information and Communication Technologies. La continua innovazione tecnologica dei medical device per diabetici lascia ben sperare, dietro la spinta di capitali sempre più ingenti che iniziano a muoversi in questo mercato del futuro. Sempre più device tecnologicamente avanzati, all’avanguardia e performanti, sono a disposizione del paziente diabetico, che può migliorare tutti processi della cura, contenendo le spese. Di fondamentale importanza sono le BAN reti di sensori e wearable device, i cui dati diventano parte di un sistema di gestione delle cure più ampio. A questo proposito METABO è un progetto ICT europeo dedicato allo studio ed al supporto di gestione metabolica del diabete. Si concentra sul miglioramento della gestione della malattia, fornendo a pazienti e medici una piattaforma software tecnologicamente avanzata semplice e intuitiva, per aiutarli a gestire tutte le informazioni relative al trattamento del diabete. Innovativo il Clinical Pathway, che a partire da un modello Standard con procedimenti semplici e l’utilizzo di feedback del paziente, viene progressivamente personalizzato con le progressive modificazioni dello stato patologico, psicologico e non solo. La possibilità di e-prescribing per farmaci e device, e-learning per educare il paziente, tenerlo sotto stretto monitoraggio anche alla guida della propria auto, la rendono uno strumento utile e accattivante.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il concetto di inflazione e' stato introdotto nei primi anni ’80 per risolvere alcuni problemi del modello cosmologico standard, quali quello dell’orizzonte e quello della piattezza. Le predizioni dei piu' semplici modelli inflazionari sono in buon accordo con le osservazioni cosmologiche piu'recenti, che confermano sezioni spaziali piatte e uno spettro di fluttuazioni primordiali con statistica vicina a quella gaussiana. I piu' recenti dati di Planck, pur in ottimo accordo con una semplice legge di potenza per lo spettro a scale k > 0.08 Mpc−1 , sembrano indicare possibili devi- azioni a scale maggiori, seppur non a un livello statisticamente significativo a causa della varianza cosmica. Queste deviazioni nello spettro possono essere spiegate da modelli inflazionari che includono una violazione della condizione di lento rotolamento (slow-roll ) e che hanno precise predizioni per lo spettro. Per uno dei primi modelli, caratterizzato da una discontinuita' nella derivata prima del potenziale proposto da Starobinsky, lo spettro ed il bispettro delle fluttuazioni primordiali sono noti analiticamente. In questa tesi estenderemo tale modello a termini cinetici non standard, calcolandone analiticamente il bispettro e confrontando i risultati ottenuti con quanto presente in letteratura. In particolare, l’introduzione di un termine cinetico non standard permettera' di ottenere una velocita' del suono per l’inflatone non banale, che consentira' di estendere i risultati noti, riguardanti il bispettro, per questo modello. Innanzitutto studieremo le correzioni al bispettro noto in letteratura dovute al fatto che in questo caso la velocita' del suono e' una funzione dipendente dal tempo; successivamente, cercheremo di calcolare analiticamente un ulteriore contributo al bispettro proporzionale alla derivata prima della velocita' del suono (che per il modello originale e' nullo).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi studiamo le proprietà fondamentali delle funzioni armoniche. Ricaviamo le formule di media mostrando alcune proprietà importanti, quali la disuguaglianza di Harnack, il teorema di Liouville, il principio del massimo debole e forte. Infine, illustriamo un criterio di risolubilità per il problema di Dirichlet per il Laplaciano in un arbitrario dominio limitato di R^n tramite un metodo noto come metodo di Perron per le funzioni subarmoniche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In quest’elaborato verranno trattate le caratteristiche fisiche, chimiche e morfologiche dei pianeti che compongono il Sistema Solare, escludendo però la Terra, in quanto lo studio del globo terrestre, seppur interessante, è argomento di geologia; per cui si è deciso di non descriverne le proprietà, anche se verrà usata la sua massa e il suo raggio come unità di riferimento per tutti i pianeti. Non verranno trattate questioni dinamiche come il problema di Keplero a piu` corpi e le risonanze orbitali, in quanto quest’argomento è già presente nell’elenco titoli degli elaborati delle laure triennali di Astronomia, per cui si esulerebbe dallo scopo di quest’elaborato; ci si limiterà dunque, soltanto ad accennare alcune questioni solo dove necessario. L’elaborato è suddiviso in varie sezioni: nella prima si farà un breve inventario di ciò che comprende il Sistema Solare e alle fasi della sua formazione che lo hanno portato alla sua attuale configurazione, nella seconda si analizzeranno le proprietà che definiscono i pianeti da un punto di vista fisico e le condizioni per cui assumono determinate caratteristiche, quali la forma, la temperatura di equilibrio, la presenza o meno di atmosfere e magnetosfere. Successivamente si passerà ad analizzare sommariamente, sotto le condizioni descritte nella sezione precedente, le proprietà caratteristiche di ciascun pianeta mettendo in evidenza analogie e differenze fra ciascun corpo. Dopo una breve sezione sui corpi minori e sulle decisioni che hanno portato a non considerare alcuni di questi corpi piu` come pianeti, si passerà a descrivere alcuni metodi di ricerca, grazie ai quali sono stati scoperti numerosi pianeti extrasolari. In appendice si riporteranno il significato di tutti i simboli e i valori delle costanti utilizzati spesso durante la stesura dell’elaborato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il Massiccio del Cansiglio-Monte Cavallo costituisce uno dei maggiori complessi carsici italiani; con questo lavoro si cerca di fornirne una caratterizzazione idrogeologica sulla quale poter basare una futura prova di tracciamento multiplo, al fine di definirne con precisione la configurazione interna. Lo studio è incentrato sul monitoraggio in continuo di portate, temperature e conducibilità elettrica compensata a 25 °C delle tre sorgenti maggiori del fiume Livenza, che sgorgano alla base del Massiccio, e su un monitoraggio idrochimico discontinuo di nove sorgenti (tra cui figurano anche le tre principali) e di quattro grotte rappresentanti le aree di infiltrazione concentrata. L’enorme volume d’acqua contenuto in questo grande acquifero carsico sembra riversarsi quasi completamente nelle aree sorgive situate al margine occidentale della pianura friulana, che cinge il lato orientale del Massiccio. In linea generale, queste acque, tipicamente carbonatiche, non hanno tempi di residenza lunghi all’interno del bacino di provenienza e fluiscono con portate elevate (> 1 m3/s) da ognuna delle tre sorgenti maggiori; nel periodo estivo (luglio-agosto) si registra una fase di svuotamento, assai accentuata al Gorgazzo, sorgente, tra le tre, posta più a nord. Molinetto, situata più a sud, pare differenziarsi maggiormente dalle altre due grandi sorgenti, Santissima e Gorgazzo, mentre le sorgenti minori sembrano, al didi alcune caratteristiche peculiari, abbastanza simili tra loro. In particolare, il Molinetto mostra, in risposta agli eventi meteorici intensi, un incremento di portata meno netto, accompagnato da un evidente fenomeno di pistonaggio, almeno durante il periodo di morbida. Al contrario, il Gorgazzo risponde immediatamente alle forti precipitazioni piovose e le acque di pioggia viaggiano rapidamente dalla zona di infiltrazione alla sorgente stessa. La Santissima, sorgente con valori medi di portata maggiori e valori di conducibilità elettrica e temperatura mediamente inferiori alle altre, sembra dipendere da un sistema con caratteristiche intermedie tra quelle delle due sorgenti adiacenti. Emerge la complessità di questo vasto sistema carsico che sembra mostrare un grado di carsificazione in aumento da sud-ovest a nord-est. Sulla base dei dati raccolti si suppone che al suo interno possano svilupparsi due sottosistemi: il primo sembra che riversi la sua riserva idrica nelle sorgenti Molinetto e Santissima, il secondo accomuna invece la Santissima con il Gorgazzo, il quale ne costituisce un “troppo pieno”.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Solitamente i dati telemetrici vengono campionati a intervalli regolari. Alcuni parametri, se di maggiore interesse, vengono campionati con maggiore frequenza. Questa operazione non sempre è possibile a causa delle limitazioni di banda tra spazio e terra. Una pratica comune per rispettare tali limitazioni consiste nel ridurre il campionamento di dati di minor interesse in modo da poter analizzare più attentamente i dati interessati. Non si possono analizzare attentamente alcuni dati senza trascurarne degli altri. Per migliorare lo studio di alcuni dati e rispettare le limitazioni di banda è stato studiato e sviluppato presso ESOC (Centro europeo per le operazioni spaziali) la tecnica di ricampionamento frattale. Il ricampionamento frattale prende i campioni di dati di serie temporali originali e produce un insieme di minor numero di campioni, non necessariamente ad intervalli regolari, che ricorda la serie temporale originale, offrendo una garanzia di errore massimo configurabile. Questa tecnica offre la possibilità di campionare i dati con maggiore frequenza e precisione a bordo e di trasmettere poi a terra solo i campioni necessari per ricostruire il segnale originale con il livello desiderato di precisione e con importanti riduzioni di dati. Ciò significa che il ricampionamento frattale non solo permette di migliorare l’osservabilità dei dati ma anche di ridurre i requisiti di larghezza di banda.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Gli odori rappresentano uno degli elementi di disturbo che la popolazione avverte maggiormente e, anche nel caso in cui non siano associati a sostanze tossiche, sono causa di conflitti e di intolleranza, sia nei confronti delle aziende che li diffondono nel territorio, sia nella scelta del sito di localizzazione di nuovi impianti. La valutazione del disturbo olfattivo e la sua regolamentazione (esistono linee guida, ma non una legislazione di riferimento) rappresentano aspetti caratterizzati da elevata complessità, dal momento che l’inquinamento olfattivo è strettamente associato alla percezione umana. Nella tesi vengono valutate le emissioni odorigene e le relative immissioni, dovute ad un comparto per la gestione integrata dei rifiuti. Per caratterizzare le emissioni sono stati prelevati dei campioni di aria presso le principali sorgenti individuate e quantificate utilizzando la tecnica dell’olfattometria dinamica. Una volta caratterizzate le sorgenti, i dati di emissione ottenuti dalla campagna di misura e dall’analisi olfattometrica sono stati utilizzati come dati di input del modello LAPMOD (LAgrangian Particle MODel). LAPMOD è stato implementato con un modulo specifico per la determinazione delle concentrazioni massime orarie che utilizza un peak-to-mean variabile nel tempo, a differenza di altri modelli che usano un valore costante per la determinazione. Dall'elaborazione dei dati è emerso che, utilizzando il modulo specifico per gli odori, le concentrazioni come 98° percentile riferite al giorno tipico hanno un andamento opposto rispetto all’uso di un peak-to-mean costante. Dal confronto della simulazione in cui le emissioni sono indipendenti dalla variazione della portata di odore in funzione della velocità del vento, con quella che invece simula tale dipendenza (nelle sorgenti che presentano paratie laterali e tettoia) è emerso che la simulazione che mitiga completamente l’effetto del vento è più coerente con la realtà.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’Otello di Luigi Lo Cascio è stato concepito nella volontà di mettere in luce come non sia Otello bensì Desdemona la straniera del dramma. Il mio lavoro rileva in primo luogo in che modo l’autore sia riuscito a raggiungere il suo obiettivo utilizzando diversi espedienti: esplicitare la scelta di riportare la vicenda raccontando di un generale bianco, per non suscitare pregiudizi avversi ad una corretta interpretazione; isolare linguisticamente Desdemona, unica parlante italiana in un universo di voci palermitane, per enfatizzare la solitudine della donna che, circondata da soli uomini, non ha possibilità di essere vista e compresa per quello che è, in quanto viene interpretata attraverso immagini stereotipate; inserire un narratore interno che guidi gli spettatori attraverso il ragionamento dell’autore. In secondo luogo, il mio elaborato confronta l’opera di Lo Cascio con quella di Shakespeare dimostrando come già all’interno di quest’ultima fossero presenti tutti gli elementi necessari per dare all’Otello l’interpretazione che ne dà l’autore palermitano: la perfetta integrazione di Otello nella società veneziana, che esclude il comune ricorso alle diverse culture dei coniugi per giustificare il comportamento violento del Moro; la visione idealizzata della figura femminile, che impedisce ai personaggi maschili di vedere la realtà; l’impossibilità di conciliare la donna reale con quella immaginata, vero movente dell’assassinio di Desdemona.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

San Patrignano non rappresenta solo una comunità di recupero, ma anche un'azienda agricola che, al suo interno, vede realizzata l'intera filiera di produzione e lavorazione del latte vaccino. Uno dei prodotti di spicco, di grande importanza per l'economia locale, è certamente lo Squacquerone di Romagna Dop, un formaggio fresco, caratterizzato da particolari parametri chimico-fisici ed organolettici strettamente correlati al territorio d'origine. La ricerca, svoltasi in un periodo di dodici mesi, ha permesso di raccogliere un cospicuo quantitativo di dati, con l'obiettivo di valutare la qualità igienica, la sicurezza e la relazione con la materia prima utilizzata per la caseificazione. Le analisi sono state svolte secondo uno specifico piano di campionamento mensile, che prevedeva sia la determinazione della qualità microbiologica del latte utilizzato, prima e dopo la fase preliminare di pastorizzazione, sia la determinazione dei principali agenti degradativi e patogeni nel prodotto finito. Si sono volute evidenziare eventuali differenze in rapporto al periodo di raccolta del latte ed eventuali ripercussioni sulla qualità finale dello Squacquerone DOP. I risultati testimoniano l'ottima qualità del latte ottenuto dalle bovine presso la stalla San Patrignano, anche in relazione alla stagionalità. A conferma di ciò, la sporadica presenza di batteri degradativi, non in grado di influenzare in modo significativo la shelf life del prodotto Squacquerone, e l'assenza continuativa di batteri patogeni. Inoltre, i dati raccolti, in un'ottica di controllo qualità dell’azienda agricola, supportano l'identificazione dei punti critici del processo di produzione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente elaborato si pone l’obiettivo di determinare se il genere del discorso di conferenza non accademica coincida con il genere del discorso di conferenza accademica, nello specifico per quanto riguarda le loro introduzioni. La prima parte della tesi si concentra sulle basi teoriche. In primo luogo è stata sviluppata una panoramica della letteratura esistente riguardo ai discorsi di conferenza accademica, dalla quale si è poi ristretto il campo sugli studi che hanno preso in esame solo la loro introduzione. Alla luce dell’assenza di pubblicazioni sulle conferenze non accademiche, e di conseguenza anche sui loro discorsi, si è cercato di definire il genere del discorso di conferenza non accademica, applicando il concetto di ‘comunità discorsiva’ sia ai discorsi di conferenza accademica sia a quelli di conferenza non accademica. Una volta stabilito che il contesto non accademico differisce da quello accademico, si è passati a definire l’introduzione dei discorsi di conferenza non accademica in quanto genere. Nella seconda parte dell’elaborato è stata svolta l’analisi di cinque case study, ovvero della trascrizione delle introduzioni di cinque discorsi di conferenza non accademica. A queste è stato applicato il modello di mosse retoriche delle introduzioni dei discorsi di conferenza accademica elaborato da Rowley-Jolivet e Carter-Thomas, per determinare se fosse valido anche per le introduzioni dei discorsi di conferenza non accademica. Una volta scoperto che non lo è, e che quindi le introduzioni dei discorsi di conferenza non accademica e quelle dei discorsi di conferenza accademica sono due 'sotto-generi' diversi, è stato proposto un nuovo modello di mosse retoriche. Infine sono stati avanzati dei suggerimenti riguardo all’applicabilità del suddetto modello, non solo in altri studi nel campo dell’analisi di genere, ma anche nel settore dell’interpretazione simultanea, con particolare riferimento alla preparazione dell’interprete e alla strategia di anticipazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel volume vengono proposte delle strategie di riqualificazione dell’edificio in via W. Goethe con numero civico 2-10 a Corticella zona Navile. L’edificio fa parte del quartiere PEEP realizzato a partire dagli anni ‘70 circa. L’intera area ricopre una superficie pari a 220.000 m2 di cui edificata 38.000 m2. Della superficie edificata ben 30.400 m2 è stata destinata al residenziale. A seguito delle evoluzioni economiche e sociali e alle restrizioni sempre più severe della normativa, il quartiere ha mostrato delle carenze e delle criticità: – Scarse prestazioni energetiche degli edifici con elevati costi di esercizio; – Inadeguata risposta alle azioni sismiche; – Tagli di alloggi non in grado di soddisfare l’odierna domanda; – Mancanza di efficaci spazi pubblici e di relazione; – Inefficace connessione urbana ai maggiori poli attrattivi e di circolazione. Come primo obbiettivo è stato affrontato il problema della mancanza di connessioni ciclopedonali adeguate al territorio di Corticella. Vi sono infatti alcune aree di nodale importanza che sono sprovviste di questi collegamenti rendendo difficoltoso il link tra i punti attrattivi fondamentali di Corticella e il nostro quartiere. Il progetto intende migliorare questo tipo di servizio in linea con il progetto “bike sharing & ride” promosso dalla Regione Emilia Romagna al fine di incentivare e promuovere la mobilità. Seguono poi gli interventi volti a risolvere le problematiche riscontrate nell’edificio. Interventi atti a riportare l’edificio in una condizione tale da renderlo adeguato alle necessità attuali e in grado di svolgere la sua funzione per gli anni a venire. Si tratta di strategie tecniche e parallelamente di strategie energetiche, con l’obbiettivo di definire spazi confortevoli all’interno degli alloggi. A tale fine sono state realizzate anche valutazioni sull’illuminazione naturale degli ambienti interni per valutare l’efficacia o meno del sistema utilizzato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il monitoraggio della glicemia risulta fondamentale per pazienti diabetici, poiché rappresenta il punto di partenza per la cura della malattia. In particolare risulta quindi estremamente utile un automonitoraggio della glicemia, in quanto, essendo il diabete una malattia cronica, deve essere costantemente tenuta sotto controllo. Questo ha portato allo sviluppo di strumenti di analisi che fossero principalmente semplici da usare, per permettere a chiunque, anche senza alcuna conoscenza in materia, di poter effettuare test glicemici, e quindi che fossero pratici, non ingombranti e di rapido utilizzo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’elaborato affronta la tematica della detonazione nel motore a combustione interna, al fine di individuare un modello che sia in grado di riprodurre il fenomeno in modo accurato, con la prospettiva di un uso a scopo predittivo. A tal proposito vengono presentati modelli basati su svariate metodologie: in particolar modo, accanto ai metodi basati sulle grandezze direttamente o indirettamente misurabili del motore ad accensione comandata, vengono presentati un metodo basato sull’applicazione delle reti neurali, una metodologia di controllo basata sull’approccio True Digital Control, e due metodi che si avvalgono di procedimenti di tipo puramente statistico (metodo dei minimi quadrati e metodo Monte Carlo) per ricavare alcune delle grandezze fondamentali per il calcolo della detonazione. Successivamente, dopo una breve parentesi sulle simulazioni di tipo 3D, vengono introdotti i modelli fisici zero-dimensionali. Uno di questi, basato su un indice (definito dal simbolo Kn) capace di dare una valutazione quantitativa del fenomeno, viene applicato ad un insieme di dati sperimentali provenienti dai test al banco di un motore Ducati 1200. I risultati dell’analisi vengono confrontati con le evidenze sperimentali, sottolineando la buona rispondenza delle simulazioni ad essi e di conseguenza la potenzialità di tali metodi, computazionalmente non onerosi e di rapida applicazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La fabbricazione additiva è una classe di metodi di fabbricazione in cui il componente viene costruito aggiungendo strati di materiale l’uno sull’altro, sino alla completa realizzazione dello stesso. Si tratta di un principio di fabbricazione sostanzialmente differente da quelli tradizionali attualmente utilizzati, che si avvalgono di utensili per sottrarre materiale da un semilavorato, sino a conferire all’oggetto la forma desiderata, mentre i processi additivi non richiedono l’utilizzo di utensili. Il termine più comunemente utilizzato per la fabbricazione additiva è prototipazione rapida. Il termine “prototipazione”’ viene utilizzato in quanto i processi additivi sono stati utilizzati inizialmente solo per la produzione di prototipi, tuttavia con l’evoluzione delle tecnologie additive questi processi sono sempre più in grado di realizzare componenti di elevata complessità risultando competitivi anche per volumi di produzione medio-alti. Il termine “rapida” viene invece utilizzato in quanto i processi additivi vengono eseguiti molto più velocemente rispetto ai processi di produzione convenzionali. La fabbricazione additiva offre diversi vantaggi dal punto di vista di: • velocità: questi processi “rapidi” hanno brevi tempi di fabbricazione. • realizzazione di parti complesse: con i processi additivi, la complessità del componente ha uno scarso effetto sui tempi di costruzione, contrariamente a quanto avviene nei processi tradizionali dove la realizzazione di parti complesse può richiedere anche settimane. • materiali: la fabbricazione additiva è caratterizzata dalla vasta gamma di materiali che può utilizzare per la costruzione di pezzi. Inoltre, in alcuni processi si possono costruire pezzi le cui parti sono di materiali diversi. • produzioni a basso volume: molti processi tradizionali non sono convenienti per le produzioni a basso volume a causa degli alti costi iniziali dovuti alla lavorazione con utensili e tempi di setup lunghi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I Social Network sono una fonte di informazioni di natura spontanea, non guidata, provviste di posizione spaziale e prodotte in tempo reale. Il Social Sensing si basa sull'idea che gruppi di persone possano fornire informazioni, su eventi che accadono nelle loro vicinanze, simili a quelle ottenibili da sensori. La letteratura in merito all’utilizzo dei Social Media per il rilevamento di eventi catastrofici mostra una struttura comune: acquisizione, filtraggio e classificazione dei dati. La piattaforma usata, nella maggior parte dei lavori e da noi, è Twitter. Proponiamo un sistema di rilevamento di eventi per l’Emilia Romagna, tramite l’analisi di tweet geolocalizzati. Per l’acquisizione dei dati abbiamo utilizzato le Twitter API. Abbiamo effettuato due passaggi per il filtraggio dei tweet. Primo, selezione degli account di provenienza dei tweet, se non sono personali è improbabile che siano usati per dare informazioni e non vanno tenuti in considerazione. Secondo, il contenuto dei tweet, vengono scartati se presentano termini scurrili, parole come “buon giorno” e un numero di tag, riferiti ad altri utenti, superiore a quattro. La rilevazione di un valore anomalo rispetto all'insieme delle osservazioni che stiamo considerando (outlier), è il primo indice di un evento eccezionale. Per l’analisi siamo ricorsi all’outlier detection come indice di rilevamento di un evento. Fatta questa prima analisi si controlla che ci sia un effettivo picco di tweet in una zona della regione. Durante il periodo di attività non sono accaduti eventi straordinari, abbiamo quindi simulato un avvenimento per testare l'efficacia del nostro sistema. La maggior difficoltà è che i dati geolocalizzati sono in numero molto esiguo, è quindi difficile l'identificazione dei picchi. Per migliorare il sistema si propone: il passaggio a streaming dei tweet e un aumento della velocità di filtraggio; la automatizzazione dei filtri; l'implementazione di un modulo finale che operi a livello del testo.