998 resultados para insegnamento questionari indicazioni nazionali trigonometrialibri di testo
Resumo:
Il progetto di tesi consiste nella progettazione e nell'implementazione di una applicazione mobile Android nativa per la generazione automatica di itinerari di viaggio in base ad alcuni dati inseriti in input dall'utente. La app è costituita da una serie di activity di raccolta dati in cui viene chiesto all'utente di inserire le sue preferenze in quanto a destinazione, periodo, modalità di viaggio ed altre informazioni. Completata questa fase viene attivato l'algoritmo che genera gli itinerari elaborando i dati raccolti. L'itinerario, che rappresenta il risultato ottenuto dall'algoritmo, è diviso in giorni ed ogni giorno di viaggio contiene i luoghi da visitare in ordine ottimizzato, con la possibilità di usufruire di ulteriori servizi di indicazioni stradali e visualizzazione su mappe. L'intero progetto è stato implementato in Java con l'ambiente di sviluppo Android Studio.
Resumo:
Questa tesi è dedicata al ruolo della metafora nella comunicazione politica dal punto di vista di un interprete di conferenza. In essa si effettua un'analisi di un corpus di metafore utilizzate da Vladimir Putin e si inquadra la metafora nel contesto dell’interpretazione simultanea. La metafora, infatti, gioca un ruolo fondamentale nel trasmettere l’intenzione comunicativa dell’oratore. Dunque, è importante che l’interprete sia conscio dei modelli metaforici più frequenti nel discorso politico, nonché delle strategie migliori da adottare di fronte ai vari tipi di metafore. Il primo capitolo è dedicato ad alcune delle teorie sulla metafora. Si evidenzia il passaggio da una concezione “classica” di metafora come abbellimento del testo, all’idea più recente della metafora come fenomeno cognitivo. Si discute inoltre della traduzione della metafora, della sua categorizzazione, su una scala da metafora viva a metafora “morta”, e del concetto di metafora universale. Il secondo capitolo riguarda il ruolo della metafora nella comunicazione politica, le funzioni da essa svolte e il suo potere persuasivo. Si presentano le metafore più diffuse nei discorsi politici russi e il particolare stile comunicativo di Vladimir Putin. Il terzo capitolo analizza un corpus di metafore di Vladimir Putin. Le metafore estratte sono classificate su una scala, dalle più alle meno lessicalizzate; si evidenziano le metafore concettuali più frequenti e le potenziali difficoltà che possono emergere nella resa in interpretazione simultanea.
Resumo:
In questa tesi si è cercato di trovare le soluzioni più efficaci a supporto delle questioni legate all'ipertensione di seguito descritte attraverso l'uso di tecniche riguardanti l'intelligenza artificiale e l'Internet of Things. Uno tra i compiti dei medici che si occupano di curare i malati di ipertensione è quello di elaborare protocolli per quanto riguarda la prevenzione e la cura di questa malattia, i quali vengono periodicamente aggiornati. Per supportare ciò, il primo progetto sviluppato è consistito in un'analisi dei dati sul dataset ottenuto a partire dall'elaborazione delle risposte date ai questionari che sono stati distribuiti durante la Giornata Mondiale dell'Ipertensione. A partire da questo, si è cercato di evidenziare la classe di persone che con più probabilità sono malate di ipertensione in modo tale che le linee guida aggiornate si concentrino maggiormente su costoro. La seconda questione affrontata è che non sempre le cure che vengono prescritte sono efficaci, talvolta a causa del medico, talvolta a causa del paziente. Si rende perciò necessario fornire ai pazienti degli strumenti che li aiutino direttamente nella cura della loro malattia. Devono avere anche lo scopo di aiutare il medico nel suo lavoro di monitoraggio periodico delle condizioni di salute del paziente, perché possa avere realmente il polso della situazione. Per fare questo, il secondo progetto ha riguardato lo sviluppo di un chatbot disponibile sulla piattaforma di messaggistica istantanea Telegram ad uso dei malati di ipertensione. Questo assistente virtuale permette loro di registrare le misurazioni di pressione che settimanalmente devono effettuare e ricorda loro di farlo quando passa troppo tempo dall'ultima misurazione. Il sistema permette inoltre di visualizzare medie e grafici delle misurazioni che sono state raccolte cosicché il medico può affidarsi ad uno strumento più evoluto del semplice libretto diario in cui il paziente annota tutte le misurazioni.
Resumo:
In questa tesi si trattano lo studio e la sperimentazione di un modello generativo retrieval-augmented, basato su Transformers, per il task di Abstractive Summarization su lunghe sentenze legali. La sintesi automatica del testo (Automatic Text Summarization) è diventata un task di Natural Language Processing (NLP) molto importante oggigiorno, visto il grandissimo numero di dati provenienti dal web e banche dati. Inoltre, essa permette di automatizzare un processo molto oneroso per gli esperti, specialmente nel settore legale, in cui i documenti sono lunghi e complicati, per cui difficili e dispendiosi da riassumere. I modelli allo stato dell’arte dell’Automatic Text Summarization sono basati su soluzioni di Deep Learning, in particolare sui Transformers, che rappresentano l’architettura più consolidata per task di NLP. Il modello proposto in questa tesi rappresenta una soluzione per la Long Document Summarization, ossia per generare riassunti di lunghe sequenze testuali. In particolare, l’architettura si basa sul modello RAG (Retrieval-Augmented Generation), recentemente introdotto dal team di ricerca Facebook AI per il task di Question Answering. L’obiettivo consiste nel modificare l’architettura RAG al fine di renderla adatta al task di Abstractive Long Document Summarization. In dettaglio, si vuole sfruttare e testare la memoria non parametrica del modello, con lo scopo di arricchire la rappresentazione del testo di input da riassumere. A tal fine, sono state sperimentate diverse configurazioni del modello su diverse tipologie di esperimenti e sono stati valutati i riassunti generati con diverse metriche automatiche.
Resumo:
Il periodo in cui viviamo rappresenta la cuspide di una forte e rapida evoluzione nella comprensione del linguaggio naturale, raggiuntasi prevalentemente grazie allo sviluppo di modelli neurali. Nell'ambito dell'information extraction, tali progressi hanno recentemente consentito di riconoscere efficacemente relazioni semantiche complesse tra entità menzionate nel testo, quali proteine, sintomi e farmaci. Tale task -- reso possibile dalla modellazione ad eventi -- è fondamentale in biomedicina, dove la crescita esponenziale del numero di pubblicazioni scientifiche accresce ulteriormente il bisogno di sistemi per l'estrazione automatica delle interazioni racchiuse nei documenti testuali. La combinazione di AI simbolica e sub-simbolica può consentire l'introduzione di conoscenza strutturata nota all'interno di language model, rendendo quest'ultimi più robusti, fattuali e interpretabili. In tale contesto, la verbalizzazione di grafi è uno dei task su cui si riversano maggiori aspettative. Nonostante l'importanza di tali contributi (dallo sviluppo di chatbot alla formulazione di nuove ipotesi di ricerca), ad oggi, risultano assenti contributi capaci di verbalizzare gli eventi biomedici espressi in letteratura, apprendendo il legame tra le interazioni espresse in forma a grafo e la loro controparte testuale. La tesi propone il primo dataset altamente comprensivo su coppie evento-testo, includendo diverse sotto-aree biomediche, quali malattie infettive, ricerca oncologica e biologia molecolare. Il dataset introdotto viene usato come base per l'addestramento di modelli generativi allo stato dell'arte sul task di verbalizzazione, adottando un approccio text-to-text e illustrando una tecnica formale per la codifica di grafi evento mediante testo aumentato. Infine, si dimostra la validità degli eventi per il miglioramento delle capacità di comprensione dei modelli neurali su altri task NLP, focalizzandosi su single-document summarization e multi-task learning.
Resumo:
Dopo lo sviluppo dei primi casi di Covid-19 in Cina nell’autunno del 2019, ad inizio 2020 l’intero pianeta è precipitato in una pandemia globale che ha stravolto le nostre vite con conseguenze che non si vivevano dall’influenza spagnola. La grandissima quantità di paper scientifici in continua pubblicazione sul coronavirus e virus ad esso affini ha portato alla creazione di un unico dataset dinamico chiamato CORD19 e distribuito gratuitamente. Poter reperire informazioni utili in questa mole di dati ha ulteriormente acceso i riflettori sugli information retrieval systems, capaci di recuperare in maniera rapida ed efficace informazioni preziose rispetto a una domanda dell'utente detta query. Di particolare rilievo è stata la TREC-COVID Challenge, competizione per lo sviluppo di un sistema di IR addestrato e testato sul dataset CORD19. Il problema principale è dato dal fatto che la grande mole di documenti è totalmente non etichettata e risulta dunque impossibile addestrare modelli di reti neurali direttamente su di essi. Per aggirare il problema abbiamo messo a punto nuove soluzioni self-supervised, a cui abbiamo applicato lo stato dell'arte del deep metric learning e dell'NLP. Il deep metric learning, che sta avendo un enorme successo soprattuto nella computer vision, addestra il modello ad "avvicinare" tra loro immagini simili e "allontanare" immagini differenti. Dato che sia le immagini che il testo vengono rappresentati attraverso vettori di numeri reali (embeddings) si possano utilizzare le stesse tecniche per "avvicinare" tra loro elementi testuali pertinenti (e.g. una query e un paragrafo) e "allontanare" elementi non pertinenti. Abbiamo dunque addestrato un modello SciBERT con varie loss, che ad oggi rappresentano lo stato dell'arte del deep metric learning, in maniera completamente self-supervised direttamente e unicamente sul dataset CORD19, valutandolo poi sul set formale TREC-COVID attraverso un sistema di IR e ottenendo risultati interessanti.
Resumo:
L'estrazione automatica degli eventi biomedici dalla letteratura scientifica ha catturato un forte interesse nel corso degli ultimi anni, dimostrandosi in grado di riconoscere interazioni complesse e semanticamente ricche espresse all'interno del testo. Purtroppo però, esistono davvero pochi lavori focalizzati sull'apprendimento di embedding o di metriche di similarità per i grafi evento. Questa lacuna lascia le relazioni biologiche scollegate, impedendo l'applicazione di tecniche di machine learning che potrebbero dare un importante contributo al progresso scientifico. Approfittando dei vantaggi delle recenti soluzioni di deep graph kernel e dei language model preaddestrati, proponiamo Deep Divergence Event Graph Kernels (DDEGK), un metodo non supervisionato e induttivo in grado di mappare gli eventi all'interno di uno spazio vettoriale, preservando le loro similarità semantiche e strutturali. Diversamente da molti altri sistemi, DDEGK lavora a livello di grafo e non richiede nè etichette e feature specifiche per un determinato task, nè corrispondenze note tra i nodi. A questo scopo, la nostra soluzione mette a confronto gli eventi con un piccolo gruppo di eventi prototipo, addestra delle reti di cross-graph attention per andare a individuare i legami di similarità tra le coppie di nodi (rafforzando l'interpretabilità), e impiega dei modelli basati su transformer per la codifica degli attributi continui. Sono stati fatti ampi esperimenti su dieci dataset biomedici. Mostriamo che le nostre rappresentazioni possono essere utilizzate in modo efficace in task quali la classificazione di grafi, clustering e visualizzazione e che, allo stesso tempo, sono in grado di semplificare il task di semantic textual similarity. Risultati empirici dimostrano che DDEGK supera significativamente gli altri modelli che attualmente detengono lo stato dell'arte.
Resumo:
Il presente lavoro di ricerca ha ad oggetto i profili fiscali IVA dei servizi di investimento, in ambito sia europeo che nazionale, prestati dalle banche, dalle Sim e da consulenti/società di consulenza finanziaria nei confronti della clientela al dettaglio. Ciò al fine di individuarne il corretto trattamento fiscale nonché le possibili soluzioni agli interrogativi che ancora oggi rimangono aperti, anche alla luce delle indicazioni fornite nel tempo dalla Corte di Giustizia europea. Constatata la profonda differenza esistente tra la classificazione MiFID dei servizi di investimento e quella fiscale delle operazioni finanziarie, oltre alla mancanza di coordinamento tra le relative normative europee, che non si incontrano neanche nell’attività ermeneutica della Corte di giustizia, si è cercato di interpretare la Direttiva IVA alla luce della normativa di settore (MIFID). L’analisi della Direttiva IVA e, più in particolare, del trattamento da essa riservato alle operazioni finanziarie è stata, quindi, svolta cercando di ricondurre queste ultime ai (singoli) servizi di investimento (e, quindi, alla Direttiva MiFID) al fine di tracciare un collegamento che né il legislatore comunitario né la CGE hanno individuato. È, tuttavia, apparso evidente come l’intero sistema dell’IVA, con particolare riferimento alle operazioni finanziarie, si sia ormai consolidato sulle interpretazioni della Corte di giustizia le quali hanno mostrato una elevata resilienza intrinseca. È, pertanto, auspicabile un intervento legislativo, a livello comunitario, finalizzato a rimettere mano alla Direttiva IVA al fine di fornire criteri più chiari e stringenti per l’applicazione delle disposizioni in essa contenute, con particolare riferimento a quelle relative alle operazioni finanziarie.
Resumo:
Il presente lavoro intende indagare la formulazione di nozioni autonome di diritto europeo nell’ambito dell’imposta sul valore aggiunto elaborate dalla Corte di giustizia. Più specificamente si intende proporre una tassonomia convenzionale delle nozioni autonome, utile alla loro sistematizzazione e miglior comprensione, fondata sulla distinzione fondamentale tra nozioni autonome e nozioni proprie. A questo scopo il lavoro propone un’ampia analisi delle nozioni nella giurisprudenza europea che vengono distinte a seconda che l’obiettivo finale dell’autonomia sia quello di limitare la discrezionalità applicativa degli Stati relativamente a ipotesi derogatorie, nel caso delle nozioni autonome in senso stretto; oppure che l’obiettivo ultimo sia quello di meglio definire l’ambito di applicazione di nozioni fondamentali nella struttura dell’imposta, nel caso delle nozioni proprie. Lo scopo del lavoro è dimostrare che la definizione funzionalistica risponde a obiettivi diversi, accomunati dal fatto di far valere comunque il primato dell'ordinamento europeo. L’analisi e la sistematizzazione proposte possono essere uno strumento utile nell’attuazione, interpretazione e applicazione delle nozioni. In questo senso, il lavoro esamina anche esempi tratti dalle esperienze nazionali che dimostrino, da un lato, che gli interventi della Corte relativi alle nozioni influenzano gli ordinamenti nazionali; dall’altro, che permangono ancora disallineamenti. L’analisi della giurisprudenza europea e dei regimi nazionali, infine, vuole dimostrare che l’elaborazione di nozioni autonome si inserisce nel processo verso un’armonizzazione sempre più incisiva in ambito IVA, di cui è protagonista la Corte di giustizia. Questo processo, cui l’elaborazione di un “tessuto concettuale europeo” contribuisce, comporta una limitazione della discrezionalità degli Stati, e quindi del principio di attribuzione, in nome dell’efficacia e della primazia del diritto europeo.
Resumo:
la tesi esamina l’applicazione del controllo sugli aiuti di Stato in materia fiscale tramite la disamina della giurisprudenza della Corte di giustizia. Il lavoro intende fornire una nuova prospettiva di analisi, valorizzando l’interazione tra la nozione di ‘aiuto fiscale’ ex art. 107(1) TFUE e le categorie tributarie nazionali, sottese all’applicazione del “test in tre fasi” coniato dalla Corte per identificare la presenza di un ‘vantaggio selettivo’. Facendo applicazione di tale prospettiva di analisi, la ricerca propone una nuova categorizzazione della ‘selettività fiscale’, tramite la quale vengono affrontate le tematiche più controverse legate all’applicazione dell’istituto. Infine, considerando i numerosi progetti di riforma della fiscalità diretta attualmente al vaglio delle Istituzioni europee, la tesi si confronta con il “futuro” del controllo sugli aiuti di Stato, identificato nella necessaria interazione con una cornice normativa armonizzata.
Resumo:
Il trapianto di cellule staminali emopoietiche rappresenta la terapia di scelta per numerose patologie ematologiche. Tuttavia, la mortalità da trapianto (non relapse mortality-NRM), ha limitato per lungo tempo il suo utilizzo in pazienti di età >65 anni. L’età non può più essere considerata una controindicazione assoluta al trapianto e il suo utilizzo in fasce di età un tempo ritenute non idonee è in sensibile aumento. La NRM è legata a tre ordini di complicanze: immunologiche (malattia del trapianto contro l’ospite, Graft versus-Host Disease -GVHD-), infettive e tossiche. La tossicità d’organo è direttamente correlata alla intensità del condizionamento che quindi viene ridotta in caso di comorbidità e nel paziente anziano. Tuttavia, ridurre l’intensità del condizionamento significa anche aumentare il rischio di ripresa della malattia ematologica di base e quindi tale aggiustamento deve essere fatto in funzione di indici di invecchiamento e di comorbidità, al fine di non ridurre la potenzialità curativa del trapianto. Per valutare le comorbidità abbiamo uno score altamente predittivo (Hematopoietic Cell Transplant-Comorbidity Index, di Sorror), mentre per valutare l’invecchiamento c’è una grande necessità clinica di marcatori innovativi di età biologica. Il presente lavoro ha l’obiettivo di valutare, nei pazienti sottoposti a trapianto allogenico di cellule staminali emopoietiche per tutte le indicazioni ematologiche, lo stato di metilazione del DNA, indice di età biologica. Lo scopo è di correlare l’epigenoma al rischio trapiantologico del singolo individuo.
Resumo:
A partire dal dibattito teorico proposto dalla comunità scientifica, che afferma che negli iconotesti le immagini non illustrano il testo e i testi non descrivono le immagini, e che tra i due linguaggi esiste un rapporto di insubordinazione e conflitto, l’obiettivo principale della mia tesi è quello di individuare come tale rapporto prenda forma in un corpus composto da autori italiani (Daniele Del Giudice, Umberto Eco, Michele Mari, Giorgio Agamben, Tommaso Pincio, Filippo Tuena, Emanuele Trevi, Antonella Anedda) e stranieri (John Berger, Sophie Calle, W. G. Sebald, Julio Cortázar, Orhan Pamuk, Jorge Luis Borges). Dopo aver tracciato la storia dell'iconotesto, la tesi si propone di definire una nuova categoria di iconotesto, in cui immagini e testi sono esposti all'interno di altre immagini. Può trattarsi di fotografie scattate dagli autori o da altri fotografi, oppure di immagini d'archivio. L’obiettivo è quello di mostrare le influenze formali del "Bilderatlas Mnemosyne" di Aby Warburg nel corpus selezionato e di verificare come questa tipologia sia sempre più diffusa nella letteratura contemporanea, come proiezione di una tendenza all'ipertestualità: ricorrono alcuni elementi come il montaggio, la mise en abyme, la ripetizione e il dettaglio, e una particolare forma di ekphrasis-didascalia, secondo cui la presenza dell'immagine implica una metamorfosi della concezione tradizionale del testo che descrive un'immagine, attraverso il passaggio dalla descrizione alla mostrazione.
Resumo:
Nello sport di alto livello l’uso della tecnologia ha raggiunto un ruolo di notevole importanza per l’analisi e la valutazione della prestazione. Negli ultimi anni sono emerse nuove tecnologie e sono migliorate quelle pre-esistenti (i.e. accelerometri, giroscopi e software per l’analisi video) in termini di campionamento, acquisizione dati, dimensione dei sensori che ha permesso la loro “indossabilità” e l’inserimento degli stessi all’interno degli attrezzi sportivi. La tecnologia è sempre stata al servizio degli atleti come strumento di supporto per raggiungere l’apice dei risultati sportivi. Per questo motivo la valutazione funzionale dell’atleta associata all’uso di tecnologie si pone lo scopo di valutare i miglioramenti degli atleti misurando la condizione fisica e/o la competenza tecnica di una determinata disciplina sportiva. L’obiettivo di questa tesi è studiare l’utilizzo delle applicazioni tecnologiche e individuare nuovi metodi di valutazione della performance in alcuni sport acquatici. La prima parte (capitoli 1-5), si concentra sulla tecnologia prototipale chiamata E-kayak e le varie applicazioni nel kayak di velocità. In questi lavori è stata verificata l’attendibilità dei dati forniti dal sistema E-kayak con i sistemi presenti in letteratura. Inoltre, sono stati indagati nuovi parametri utili a comprendere il modello di prestazione del paddler. La seconda parte (capitolo 6), si riferisce all’analisi cinematica della spinta verticale del pallanuotista, attraverso l’utilizzo della video analisi 2D, per l’individuazione delle relazioni Forza-velocità e Potenza-velocità direttamente in acqua. Questo studio pilota, potrà fornire indicazioni utili al monitoraggio e condizionamento di forza e potenza da svolgere direttamente in acqua. Infine la terza parte (capitoli 7-8), si focalizza sull’individuazione della sequenza di Fibonacci (sequenza divina) nel nuoto a stile libero e a farfalla. I risultati di questi studi suggeriscono che il ritmo di nuotata tenuto durante le medie/lunghe distanze gioca un ruolo chiave. Inoltre, il livello di autosomiglianza (self-similarity) aumenta con la tecnica del nuoto.
Resumo:
INTRODUZIONE Pochi studi in Letteratura hanno indagato la correlazione tra la sintomatologia dolorosa associata all’interruzione farmacologica di gravidanza (IVG) e i livelli d’ansia pre-trattamento. L’obiettivo primario del nostro studio è stato di valutare la correlazione tra la sintomatologia dolorosa in corso di IVG farmacologica e i livelli d’ansia pre-trattamento. Inoltre, sono stati indagati i fattori predittivi di dolore e la correlazione con l’epoca gestazionale. MATERIALI E METODI È stato condotto uno studio osservazionale, prospettico, multicentrico presso l’Unità Operativa di Ostetricia e Ginecologia dell’Azienda USL e presso l’Unità Operativa di Ginecologia dell’IRCCS Sant’Orsola Malpighi di Bologna. Sono state incluse le pazienti sottoposte a IVG farmacologica tra giugno 2021 e novembre 2021, che rispettassero i criteri di inclusione ed esclusione. Sono stati somministrati 5 questionari (GHQ-12, GAD-7, STAI-6, VAS) e raccolti i dati anamnestici ed ecografici. I potenziali fattori di rischio sono stati, quindi, selezionati per l’inclusione nell'analisi di regressione multivariata. RISULTATI Delle 242 pazienti incluse, il 38,0% ha riferito una sintomatologia dolorosa severa (VAS >70). Dall’analisi di regressione multivariata, la dismenorrea intensa è risultata essere il fattore di rischio più forte per il dolore (OR = 6,30, IC 95% 2,66 – 14,91), seguita da alti livelli di ansia valutati mediante il punteggio del GHQ-12 > 9 (OR = 3,33, IC 95% 1,43 – 7,76). Al contrario, la nostra analisi ha confermato che un precedente parto vaginale rappresentava una caratteristica protettiva contro il dolore (OR 0,26, IC 95% 0,14 – 0,50). CONCLUSIONI Nel nostro studio alti livelli d’ansia pre-trattamento e la dismenorrea sono associati ad intensa sintomatologia dolorosa, mentre il parto vaginale è risultato protettivo. L’IVG farmacologica è una metodica efficace e sicura, ma spesso associata a sintomatologia dolorosa. È quindi fondamentale delineare fattori di predittivi di dolore ed individuare le pazienti a maggior rischio a cui somministrare un’idonea terapia antalgica.
Resumo:
La tesi consiste nella descrizione del complessivo background storico-letterario, archeologico e digitale necessario per la realizzazione di un Atlante digitale dell’antica Grecia antica sulla base della raccolta e analisi dei dati e delle informazioni contenute nella Periegesi di Pausania. Grazie all’impiego degli applicativi GIS, ed in particolare di ArcGIS online, è stato possibile creare un database georiferito contenente le informazioni e le descrizioni fornite dal testo; ogni identificazione di un sito storico è stata inoltre confrontata con lo stato attuale della ricerca archeologica, al fine di produrre uno strumento innovativo tanto per a ricerca storico-archeologica quanto per lo studio e la valutazione dell’opera di Pausania. Nello specifico il lavoro consiste in primo esempio di atlante digitale interamente basato sull’interpretazione di un testo classico attraverso un processo di georeferenziazione dei suoi contenuti. Per ogni sito identificato è stata infatti specificato il relativo passo di Pausania, collegando direttamente Il dato archeologico con la fonte letteraria. Per la definizione di una tassonomia efficace per l’analisi dei contenuti dell’opera o, si è scelto di associare agli elementi descritti da Pausania sette livelli (layers) all’interno della mappa corrispondenti ad altrettante categorie generali (città, santuari extraurbani, monumenti, boschi sacri, località, corsi d’acqua, e monti). Per ciascun elemento sono state poi inserite ulteriori informazioni all’interno di una tabella descrittiva, quali: fonte, identificazione, età di appartenenza, e stato dell’identificazione.