226 resultados para Rienzo, Cola di, d. 1354.
Resumo:
Le immagini termiche all’ infrarosso sono utilizzate da molte decadi per monitorare la distribuzione di temperatura della pelle umana. Anormalità come infiammazioni ed infezioni causano un aumento locale della temperatura, visibile sulle immagini sotto forma di hot spot. In tal senso la termografia ad infrarossi può essere utilizzata nel campo ortopedico per rilevare le zone sovra-caricate dalla protesi. Per effettuare una valutazione precisa dell’interfaccia moncone-invasatura può essere utile combinare i dati termografici e i dati antropometrici (superficie tridimensionale del moncone), relativi ai singoli pazienti. Di ciò si occupa tale studio, che dopo aver fornito una panoramica sulla termografia e sulla reverse engineering, sperimenta delle tecniche semplici e low-cost per combinare i dati termici e i dati antropometrici. Buoni risultati si riescono ad ottenere utilizzando un Kinect come scanner e un software open-source per il texture mapping. I termogrammi 3D ricreati costituiscono un ottimo strumento di valutazione, per medici e tecnici ortopedici, circa il design dell’invasatura.
Resumo:
Durante i processi di estrazione può avvenire la formazione spontanea didrati di gas naturali, i quali, agglomerandosi, possono ostruire le tubazioni. Inibire la formazione degli idrati è quindi di fondamentale importanza al fine di prevenire danni ambientali ed economici. In questo contesto abbiamo ritenuto interessante sintetizzare diversi copolimeri a struttura controllata con lo scopo di utilizzarli come inibitori didrati. In particolare, dopo aver ottimizzato la sintesi dell’omopolimero costituente il primo blocco mediante ATRP, questo è stato utilizzato come macroiniziatore per la successiva copolimerizzazione di tre altri monomeri a diversa polarità. L’efficienza dinibizione di tutti i derivati copolimerici ottenuti è stata testata e confrontata con quella di additivi commerciali attualmente in uso mediante DSC.
Proposta di traduzione di quattro scene dell'opera teatrale La souffrance d'Alexandre di Jean Louvet
Resumo:
Con questo elaborato intendo presentare la mia proposta di traduzione delle scene 1, 5, 7 e 9 dell'opera teatrale La Souffrance d'Alexandre di Jean Louvet e il relativo commento. L'elaborato si divide in tre capitoli: nel primo introduco l'autore Jean Louvet, parlando del suo teatro e del suo stile. Nel secondo capitolo presento l'opera La souffrance d'Alexandre, e nel terzo propongo la mia traduzione accompagnata dal relativo commento in cui illustro ogni problematica traduttiva incontrata e motivo ogni mia scelta traduttiva.
Il diritto d'asilo in Austria: il ruolo dell'interprete nelle richieste di protezione internazionale
Resumo:
Meine Diplomarbeit beschäftigt sich mit den Themen des Asylverfahrens in Österreich sowie mit der Rolle von DolmetscherInnen im Asylbereich; sie besteht aus der Übersetzung von Teilen einiger Lernmodule des Trainingshandbuchs, das 2015 von UNHCR Österreich herausgegeben wurde, sowie aus meinen Kommentaren. In den ersten Kapiteln werden die Voraussetzungen für einen Asylantrag, die Richtlinie der Europäischen Union und die Bundesgesetze bezüglich des Asylrechts sowie die Rolle der UNHCR erläutert. Es werden dann spezifisch das Asylverfahren in Österreich, die Phasen der Einvernahme mit den Behörden und die Rolle der DolmetscherInnen - mit Blick auf die Auswahl von DolmetscherInnen und die dazu erforderlichen Kompetenzen - analysiert. Darauffolgend werden die Themen von der Haftung der DolmetscherInnen und dem Risiko von einer Traumatisierung für die Sprachmittler sowie das Dolmetschen für vulnerable AntragstellerInnen angesprochen. Zuletzt vertieft meine Arbeit die ethischen Prinzipien für das Dolmetschen im Asylverfahren und analysiert, anhand von konkreten Beispielen, die Probleme, die sich aus den berufsethischen Anforderungen an DolmetscherInnen ergeben. Schließlich wird die Komplexität des Dolmetschens im Asylbereich hervorgehoben.
Resumo:
Il seguente elaborato prende le mosse da un progetto, denominato NutridUva, promosso e attivamente concretizzato dall’azienda bresciana “Cascina Belmonte” di concerto con il laboratorio del Campus di Scienze Alimentari di Cesena (Università di Bologna). In particolare, si è voluta sperimentare l’applicazione di processi innovativi per la produzione di succo duva bio e bevande a base di succo duva bio proveniente da uve biologiche coltivate nell’areale della Valténesi (sponda occidentale del Garda), stabilizzati mediante l’uso di alte pressioni idrostatiche e senza trattamento termico. In questi termini, il presente lavoro ha l’obiettivo di: delineare il quadro generale in cui si inserisce il progetto, arricchendolo con spunti tratti dalle pratiche di processo seguite in loco; determinare il contenuto delle classi polifenoliche presenti nei campioni di alcuni succhi sottoposti a differenti tecnologie di macerazione in confronto all’abituale processo di lavorazione aziendale (vitigni ibridi diretti produttori, Barbera, Merlot, Cabernet). Si è proceduto dunque attraverso l’analisi spettrofotometrica delle principali classi di composti fenolici e dell’attività antiossidante.
Resumo:
L’obiettivo del presente lavoro è illustrare la creazione di due corpora bilingui italiano-inglese di libretti dopera di Giuseppe Verdi, annotati e indicizzati, e descrivere le potenzialità di queste risorse. Il progetto è nato dalla volontà di indagare l’effettiva possibilità di gestione e consultazione di testi poetici tramite corpora in studi translation-driven, optando in particolare per il genere libretto dopera in considerazione della sua complessità, derivante anche dal fatto che il contenuto testuale è fortemente condizionato dalla musica. Il primo corpus, chiamato LiVeGi, si compone di cinque opere di Giuseppe Verdi e relativa traduzione inglese: Ernani, Il Trovatore, La Traviata, Aida e Falstaff; il secondo corpus, nominato FaLiVe, contiene l’originale italiano dell’opera Falstaff e due traduzioni inglesi, realizzate a circa un secolo di distanza l’una dall’altra. All’analisi del genere libretto e delle caratteristiche principali delle cinque opere selezionate (Capitolo 1), segue una panoramica della prassi traduttiva dei lavori verdiani nel Regno Unito e negli Stati Uniti (Capitolo 2) e la presentazione delle nozioni di Digital Humanities e di linguistica computazionale, all’interno delle quali si colloca il presente studio (Capitolo 3). La sezione centrale (Capitolo 4) presenta nel dettaglio tutte le fasi pratiche di creazione dei due corpora, in particolare selezione e reperimento del materiale, OCR, ripulitura, annotazione e uniformazione dei metacaratteri, part-of-speech tagging, indicizzazione e allineamento, terminando con la descrizione delle risorse ottenute. Il lavoro si conclude (Capitolo 5) con l’illustrazione delle potenzialità dei due corpora creati e le possibilità di ricerca offerte, presentando, a titolo desempio, due case study: il linguaggio delle protagoniste tragiche nei libretti di Verdi in traduzione (studio realizzato sul corpus LiVeGi) e la traduzione delle ingiurie nel Falstaff (attraverso il corpus FaLiVe).
Resumo:
La fisica del sapore è uno dei settori di ricerca più promettenti per realizzare misure di altissima precisione del Modello Standard e per osservare indirettamente, attraverso i decadimenti mediati dalle interazioni deboli nuove particelle. L'esperimento LHCb \`e stato progettato per realizzare misure di altissima precisione in questo settore. Grazie all'alta luminosità integrata disponibile (3 fb \ap{-1}) ed alla elevata sezione durto di produzione dei quark charm, LHCb \`e in grado di realizzare misure di una precisione mai raggiunta fino ad ora da altri esperimenti. In questo lavoro di tesi \`e stata realizzata una misura preliminare della simmetria di violazione di CP, realizzata mediante i decadimenti dei mesoni neutri $D^0$ negli stati finali $K^+K^-$ e $\pi^+\pi^-$. Per realizzare la misura sono stati selezionati i decadimenti $D^{*\pm} \to D^0(K^+K^-)\pi^\pm_s$ e $D^{*\pm} \to D^0(\pi^+\pi^-)\pi^\pm_s$ utilizzando i dati raccolti da LHCb durante il RUN-1 (2010-2012) ed \`e stato sviluppato un modello di adattamento ai dati in grado di misurare la differenza di asimmetria di CP integrate nel tempo nei decadimenti $D^0 \rightarrow K^+K^-$ e $D^0 \rightarrow \pi^+\pi^-$, $\Delta A_{CP}$. Il modello \`e stato sviluppato in modo da descrivere le distribuzioni di massa invariante del $D^0$ e del $D^{*\pm}$ sia per la componente di segnale sia per quelle di fondo ed \`e stato adattato ai dati, per sottrarne i fondi e misurare le asimmetrie $A_{RAW}(K^+K^-)$ e $A_{RAW}(\pi^+\pi^-)$, corrispondenti alla differenza tra il numero di eventi di segnale $D^{*+}$ e $D^{*-}$, diviso la loro somma. La differenza di queste asimmetrie corrisponde a $\Delta A_{CP}$, la cui misura, non ufficiale, \`e stata determinata essere $\Delta A_{CP}= (-0.12\pm 0.08)\% $. Questo risultato rappresenta la miglior misura al mondo mai realizzata da un singolo esperimento.
Resumo:
Il problema dell'acidificazione degli oceani, conseguente ai cambiamenti climatici, è un processo ancora poco conosciuto. Per comprendere questo fenomeno, possono essere utilizzati degli ambienti naturalmente acidificati, considerati laboratori a cielo aperto. Lo scopo di questo lavoro di tesi è stato quello di utilizzare le fumarole presenti nell'isola di Ischia, per approfondire le dinamiche dei processi di acidificazione e per analizzare l'eventuale interazione tra pH e condizioni meteorologiche. I dati utilizzati, forniti dalla Stazione Zoologica “Anton Dohrn” di Napoli, erano serie di pH e di vento rilevate in continuo, in due aree, nord e sud rispetto all'isolotto del Castello Aragonese, e in tre stazioni lungo un gradiente di acidificazione. Tutto il lavoro è stato svolto a step, dove il risultato di un'analisi suggeriva il tipo e il metodo analitico da utilizzare nelle analisi successive. Inizialmente i dati delle due serie sono stati analizzati singolarmente per ottenere i parametri più salienti delle due serie. In seguito i dati sono stati correlati fra loro per stimare l'influenza del vento sul pH. Globalmente è stato possibile evidenziare come il fenomeno dell'acidificazione sia correlato con il vento, ma la risposta sembra essere sito-specifica, essendo risultato dipendente da altri fattori interagenti a scala locale, come la geomorfologia del territorio, le correnti marine e la batimetria del fondale. È però emersa anche la difficoltà nel trovare chiare correlazioni fra le due serie indagate, perché molto complesse, a causa sia della numerosa quantità di zeri nella serie del vento, sia da una forte variabilità naturale del pH, nelle varie stazioni esaminate. In generale, con questo lavoro si è dimostrato come utilizzare tecniche di analisi delle serie storiche, e come poter utilizzare metodi di regressione, autocorrelazione, cross-correlation e smoothing che possono integrare i modelli che prendono in considerazione variabili esogene rispetto alla variabile di interesse.
Resumo:
In questa tesi inizialmente ci si è occupati di definire ed approfondire le caratteristiche della tecnologia Wi-Fi Direct, illustrandone il funzionamento, l’architettura e gli scenari di utilizzo. Successivamente è stata sviluppata un’applicazione basata su tale tecnologia, con lo scopo di fornire un servizio di disseminazione di messaggi daiuto in situazioni di emergenza o di catastrofi naturali, nelle quali la rete cellulare viene inevitabilmente meno. In queste occasioni c’è il bisogno di avere uno strumento che permetta di comunicare in maniera facile, veloce e che sia alla portata di tutti. Caratteristiche e qualità proprie di uno smartphone, dispositivo che oggigiorno è presente nelle tasche di ognuno di noi. L’obiettivo finale infatti, sarebbe quello di creare un applicativo che possa idealmente essere preinstallato in ogni nostro dispositivo, un servizio che sia diffuso, compreso ed utilizzabile istantaneamente da tutti, in modo tale da essere una sicurezza e un aiuto di vitale importanza in situazioni di pericolo. Per lo sviluppo di una tale applicazione ci si è basati sul sistema operativo Android, che è il più diffuso tra gli utenti di tutto il mondo. Nel primo capitolo ci si è occupati di di presentare ed approfondire la tecnologia Wi-Fi Direct, definendone gli ambiti generali di utilizzo e le problematiche che vengono affrontate. Nel secondo capitolo si prosegue con la presentazione della tecnologia in ambiente Android, descrivendo le API fornite da Google per l’utilizzo del servizio in questione. Nel terzo capitolo, dopo un’analisi dei progetti che coinvolgono tale tecnologia, viene illustrata l’applicazione creata, le sue funzionalità e caratteristiche ed eventuali casi duso. Nel quarto capitolo è stata inserita la parte più tecnica, dove illustro i problemi incontrati e le modalità di risoluzione degli stessi, insieme alle strutture ed agli oggetti messi a disposizione da Java che sono stati utilizzati. Infine nel capitolo conclusivo è stato fatto un riepilogo del lavoro svolto, indicando le difficoltà incontrate ed eventuali possibili miglioramenti e sviluppi futuri del mio progetto.
Resumo:
A partire dal 1° giugno 2015 è stato adottato ufficialmente in Europa il Regolamento 1272/2008/CE relativo alla classificazione, all'etichettatura e all'imballaggio delle sostanze e miscele pericolose, noto con il termine di Regolamento CLP. La data del 1° giugno 2015 coincide anche con il termine ultimo prescritto per il recepimento da parte degli Stati membri dell’Unione Europea della Direttiva 2012/18/UE sul controllo dei pericoli di incidenti rilevanti connessi con determinate sostanze pericolose. Dunque, come recepimento della sopracitata direttiva, il 29 luglio 2015 è stato emanato in Italia il D.Lgs. 105/2015, che ha introdotto numerose novità indotte non solo dalla direttiva da cui discende, ma anche e soprattutto dal fatto che il Legislatore italiano ha colto l’occasione per legiferare su alcuni aspetti attuativi della direttiva, così da produrre quello che viene identificato in ambito nazionale come Testo Unico per il rischio di incidente rilevante. La variazione più evidente apportata dal D.Lgs. 105/2015 rispetto alla norma precedente è l’adeguamento dell’allegato 1 al Regolamento CLP; l’allegato 1 elenca le sostanze e le categorie di sostanze pericolose con i corrispondenti valori soglia da utilizzare per valutare l’assoggettabilità degli stabilimenti al Decreto. A fronte dell’emanazione del D.Lgs. 105/2015, l’impatto dell’adeguamento è controverso e non noto a priori: nonostante la classificazione degli stabilimenti assoggettabili si mantenga sempre su due livelli, non è da escludersi il possibile passaggio di uno stabilimento da una situazione a rischio basso ad una a rischio alto o viceversa oil suo ingresso o la sua fuoriuscita dal campo di applicazione del Decreto. Altri elementi innovativi introdotti dal D.Lgs. 105/2015 sono relativi ai contenuti del Rapporto di Sicurezza, che deve essere redatto e trasmesso dai Gestori degli stabilimenti a maggior rischio: viene disposta per generici stabilimenti la possibilità di adottare per l’analisi preliminare del rischio metodologie alternative al metodo ad indici finora esclusivamente previsto dalla norma italiana. Inoltre, nel testo del D.Lgs. 105/2015 vengono ufficialmente indicati i riferimenti a due metodi semplificati (uno per il suolo e sottosuolo e uno per le acque superficiali) per la valutazione del rischio di contaminazione ambientale causato da rilasci rilevanti di idrocarburi liquidi e/o sostanze eco-tossiche da depositi. Per quanto riguarda il rischio di incidenti tecnologici innescati da fenomeni naturali (rischio NaTech), la nuova norma sancisce la libertà di scelta da parte dei Gestori della metodologia di valutazione da adottare con riferimento allo stato dell’arte in materia. Al fine di applicare una prima valutazione delle novità introdotte dal D.Lgs. 105/2015, si è considerata l’applicazione di alcune valutazioni previste dal Decreto a due casi di studio reali: come primo caso si è scelto uno Stabilimento che effettua principalmente l’attività di produzione e deposito nel settore degli esplosivi e come secondo caso uno Stabilimento che produce e confeziona prodotti per la nutrizione e difesa vegetale rappresentati per lo più da fertilizzanti organo-minerali e agrofarmaci.
Resumo:
Studio di un generatore eolico d'alta quota per sfruttare i venti ad alta velocità.
Resumo:
L’utilizzo delle biomasse rappresenta oggi una delle vie più interessanti da percorrere nell’ambito di una chimica industriale maggiormente sostenibile, alternativa alla chimica tradizionale basata sulle risorse fossili. I carboidrati sono i costituenti maggioritari della biomassa e potrebbero rappresentare un’alternativa ideale al petrolio per la produzione dei building-blocks, molecole di partenza per lo sviluppo della filiera produttiva della chimica. Fra i building-blocks ottenibili dagli zuccheri vi è l’acido glucarico. I suoi usi sono molteplici ma suscita grande interesse soprattutto per la possibilità di essere utilizzato nella sintesi di diverse tipologie di polimeri. Attualmente la maggior parte dei metodi di sintesi di questa molecola prevedono l’utilizzo di ossidanti tossici o dannosi per l’ambiente come l’acido nitrico. Lo scopo di questo lavoro di tesi è stato lo studio di catalizzatori eterogenei per la sintesi di acido glucarico da D-glucosio utilizzando ossigeno puro come ossidante. Sono stati sintetizzati sistemi monometallici a base di oro e sistemi multimetallici contenenti oro ed altri metalli in lega. Tutti i catalizzatori sono stati preparati depositando i metalli sotto forma di nanoparticelle su carbone attivo. Lo studio dei catalizzatori è stato focalizzato sull’individuazione dei metalli e delle condizioni di reazione ottimali che permettano di aumentare la selettività in acido glucarico. Gli studi condotti hanno portato alla conclusione che è possibile ottenere acido glucarico a partire da D-glucosio con rese fino al 35% utilizzando catalizzatori a base di oro in presenza di ossigeno. Attualmente l’acido glucarico viene prodotto solo su piccola scala ma ulteriori sviluppi in questa direzione potrebbero aprire la strada allo sviluppo di un nuovo processo industriale per la sintesi di acido glucarico sostenibile sia da un punto di vista economico che ambientale.
Resumo:
I carboidrati, come il D-glucosio, sono i principali costituenti della biomasse e potrebbero rappresentare un’alternativa concreta alla chimica tradizionale del petrolio per la produzione dei building-blocks, utili quest’ultimi per lo sviluppo della filiera produttiva della chimica industriale. Dal D-glucosio è possibile ottenere epimeri importanti per la medicina o zuccheri largamente utilizzati in campo alimentare come il D-fruttosio tramite isomerizzazione strutturale del D-glucosio. Attualmente, la maggior parte dei metodi di sintesi di questa molecole prevedono l’utilizzo enzimi, o la catalisi omogenea con impiego di grandi quantità di basi e acidi minerali dannosi per l’ambiente. Lo scopo di questo lavoro è stato lo studio di innovativi catalizzatori eterogenei capaci operare in soluzione acquosa la conversione acido catalizzata del D-glucosio in prodotti di epimerizzazione e isomerizzazione strutturale. I catalizzatori dei nostri test sono stati caratterizzati tramite tecniche BET, ATR-IR, DRUv-Vis e XRD. Lo studio, quindi, è stato focalizzato sulle valutazioni delle prestazioni catalitiche di questi sistemi e sull’individuazione, tramite caratterizzazione strumentale, degli ioni costituenti questi solidi responsabili delle alte selettività nelle reazioni di riarrangiamento strutturale del D-glucosio. Gli studi condotti hanno portato alla conclusione che, grazie all’utilizzo di questi sistemi inorganici è possibile ottenere con alte selettività prodotti di riarrangiamento strutturale del D-glucosio, evitando al contempo la degradazione del substrato che in genere accompagna queste reazioni in condizioni di catalisi acida. Ulteriori studi riguardanti questi catalizzatori apriranno con buone probabilità la strada allo sviluppo di un nuovo processo industriale per la sintesi di questi zuccheri derivati, rendendo possibile una via produttiva sostenibile da un punto di vista economico che ambientale.
Resumo:
Dati climatici ad alta risoluzione sono attualmente molto richiesti essendo indispensabili per la valutazione degli impatti dei cambiamenti climatici alla scala locale in svariati campi d'applicazione. Per aumentare l'offerta di tali dati per il territorio italiano viene presentata in questo studio la realizzazione di un data-set con risoluzione di trenta secondi d'arco, per le temperature massime e minime giornaliere per il Trentino Alto Adige, per il periodo che va dal 1951 al 2014. La metodologia utilizzata per proiettare i dati meteorologici di un set di stazioni su di un grigliato ad alta risoluzione si basa sull'assunzione che la struttura spazio-temporale del campo di una variabile meteorologica su una determinata area possa essere descritta dalla sovrapposizione di due campi:i valori normali relativi e un periodo standard, ovvero la climatologia,e le deviazioni da questi, ovvero le anomalie. La climatologia mensile verrà interpolata sull'intero dominio tramite una regressione lineare pesata della temperatura rispetto alla quota,stimata separatamente per ogni nodo del grigliato,con pesi legati alla topografia del territorio,in modo da attribuire di volta in volta la massima importanza alle stazioni con caratteristiche più simili a quella del punto di griglia considerato. Da questa sarà possibile tramite la sovrapposizione con le anomalie mensili ricostruite sul medesimo grigliato, ottenute mediante un'interpolazione basata su una media pesata,ottenere un grigliato a 30 secondi d'arco, di serie temporali mensili in valori assoluti. Combinando poi l'interpolazione dei rapporti delle anomalie giornaliere relative alla media mensile per un set di stazioni con i campi mensili precedentemente stimati,sarà possibile costruire il data-set a risoluzione giornaliera. Prima di quest'ultima fase sarà necessario effettuare un'operazione di sincronizzazione dei dati giornalieri per assicurarsi che non vi siano sfasamenti nelle serie utilizzate. I risultati confermano l'efficacia nell'utilizzo di tale metodo su regioni orograficamente complesse, sia nel confronto diretto con i casi di studio,nei quali si nota bene la discriminazione spaziale effettuata dal modello, che nella valutazione dell'accuratezza e della precisione dei risultati. I dati ottenuti non sono affetti da errori sistematici,mentre l'errore medio assoluto risulta pari od inferiore ai $2^{\circ}$C, in linea con precedenti studi realizzati su altre aree alpine. Il metodo e i risultati risultano soddisfacenti ma ulteriormente migliorabili, sia tramite un ulteriore ottimizzazione del modello usato, che con un aumento nella qualità dei dati sui quali è stato svolto lo studio.
Resumo:
In questa tesi si presenta la realizzazione di un data-set ad alta risoluzione (30 secondi d'arco) di precipitazioni mensili (per il periodo 1921-2014), per la regione del Trentino-Alto Adige. Esso è basato su una densa rete di stazioni con osservazioni di lunga durata, sottoposte ai necessari controlli di qualità. La tecnica di interpolazione si basa sull'assunzione che la configurazione spazio-temporale del campo di una variabile meteorologica su una certa area possa essere descritta con la sovrapposizione di due campi: i valori normali relativi a un periodo standard (1961-1990), ossia le climatologie, e le deviazioni da questi, ossia le anomalie. Le due componenti possono venire ricostruite tramite metodologie diverse e si possono basare su data-set indipendenti. Per le climatologie bisogna avere un elevato numero di stazioni (anche se disponibili per un lasso temporale limitato); per le anomalie viceversa la densità spaziale ha un rilievo minore a causa della buona coerenza spaziale della variabilità temporale, mentre è importante la qualità dei dati e la loro estensione temporale. L'approccio utilizzato per le climatologie mensili è la regressione lineare pesata locale. Per ciascuna cella della griglia si stima una regressione lineare pesata della precipitazione in funzione dell'altitudine; si pesano di più le stazioni aventi caratteristiche simili a quelle della cella stessa. Invece le anomalie mensili si ricavano, per ogni cella di griglia, grazie a una media pesata delle anomalie delle vicine stazioni. Infine la sovrapposizione delle componenti spaziale (climatologie) e temporale (anomalie) consente di ottenere per ogni nodo del grigliato una serie temporale di precipitazioni mensili in valori assoluti. La bontà dei risultati viene poi valutata con gli errori quadratici medi (RMSE) e i coefficienti di correlazione di Pearson delle singole componenti ricostruite. Per mostrare le potenziali applicazioni del prodotto si esaminano alcuni casi studio.