280 resultados para Controllo pressione cilindro


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il danno epatico indotto dall'assunzione di farmaci viene comunemente indicato con il termine inglese DILI (Drug-Induced Liver Injury). Il paracetamolo rappresenta la causa più comune di DILI, seguito da antibiotici, FANS e farmaci antitubercolari. In particolare, i FANS sono una delle classi di farmaci maggiormente impiegate in terapia. Numerosi case report descrivono pazienti che hanno sviluppato danno epatico fatale durante il trattamento con FANS; molti di questi farmaci sono stati ritirati dal commercio in seguito a gravi reazioni avverse a carico del fegato. L'ultimo segnale di epatotossicità indotto da FANS è associato alla nimesulide; in alcuni paesi europei come la Finlandia, la Spagna e l'Irlanda, la nimesulide è stata sospesa dalla commercializzazione perché associata ad un'alta frequenza di epatotossicità. Sulla base dei dati disponibili fino a questo momento, l'Agenzia Europea dei Medicinali (EMA) ha recentemente concluso che i benefici del farmaco superano i rischi; un possibile aumento del rischio di epatotossicità associato a nimesulide rimane tuttavia una discussione aperta di cui ancora molto si dibatte. Tra le altre classi di farmaci che possono causare danno epatico acuto la cui incidenza tuttavia non è sempre ben definita sono gli antibiotici, quali amoxicillina e macrolidi, le statine e gli antidepressivi.Obiettivo dello studio è stato quello di determinare il rischio relativo di danno epatico indotto da farmaci con una prevalenza d'uso nella popolazione italiana maggiore o uguale al 6%. E’ stato disegnato uno studio caso controllo sviluppato intervistando pazienti ricoverati in reparti di diversi ospedali d’Italia. Il nostro studio ha messo in evidenza che il danno epatico da farmaci riguarda numerose classi farmacologiche e che la segnalazione di tali reazioni risulta essere statisticamente significativa per numerosi principi attivi. I dati preliminari hanno mostrato un valore di odds ratio significativo statisticamente per la nimesulide, i FANS, alcuni antibiotici come i macrolidi e il paracetamolo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A fronte dal recepimento del direttiva SHR nel nostro ordinamento, realizzato dal d.lgs. 27/2010, il presente lavoro si propone anzitutto di analizzare l'attuale ruolo della delega di voto - sollecitata e non - per poi verificare quale sia l'interesse concretamente sotteso a un voto così esercitato, con particolare attenzione alla sollecitazione di deleghe di voto, oggi destinata espressamente (per la prevalente dottrina) a consentire al promotore il perseguimento di interessi propri. Le considerazioni riguardo all'interesse concretamente sotteso al voto esercitato per delega portano a vagliarne la rilevanza ai fini della nozione di controllo, ex art. 2359 c.c., la quale esclude espressamente dai voti rilevanti esclusivamente quelli esercitati "per conto terzi", e non, dunque, anche quelli esercitati nell'interesse proprio da un soggetto non titolare della partecipazione. Viene quindi affrontata la principale critica ad un controllo raggiunto per tale via e, più in generale, attraverso una delle varie forme di dissociazione tra titolarità della partecipazione e legittimazione all'esercizio del voto ad essa relativo, ovvero la apparente mancanza di stabilità. Considerando tuttavia che ogni ipotesi di controllo c.d. di fatto per definizione non gode di stabilità se non si scelga di ammettere una valutazione di tale requisito necessariamente prognostica ed ex ante, si giunge alla conclusione che la fattispecie di un controllo acquisito tramite sollecitazione di deleghe si distingue da altre ipotesi di controllo di fatto esclusivamente per la maggiore difficoltà dell'accertamento in fatto del requisito della stabilità. Si affronta infine la possibilità di garantire il diritto di exit (ovvero una tutela risarcitoria) del socio di minoranza che veda modificate le condizioni di rischio del proprio investimento a causa di una modifica del soggetto controllante derivante da sollecitazione di deleghe, tramite applicazione diretta della disciplina OPA ovvero riconducendo la fattispecie all'art. 2497quater, lett. d, ove ne ricorrano i presupposti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il lavoro di ricerca che si presenta è suddiviso in tre capitoli nei quali, da altrettanti punti di osservazione, è analizzato il tema della instabilità del lavoro. Nel primo capitolo, il candidato evidenzia le cause che hanno determinato il vorticoso aumento di utilizzo dei contratti di lavoro flessibili e, a tal proposito, da un prospettiva extra-nazionale, analizza le direttive europee e, i principi comuni e le guidelines che, nel percorso di sviluppo della strategia europea per l’occupazione, hanno posto la flexicurity come modello di mercato europeo tipico; dalla medesima prospettiva, prendendo spunto dai cambiamenti del mercato globale, si pone attenzione all’analisi economica del diritto del lavoro e, in particolare, alle conseguenze che le trasformazioni economiche generano sulla capacità di questa materia di tenere elevato il grado di sicurezza occupazionale connesso alla stipula dei contratti di lavoro. Il secondo capitolo è dedicato al ruolo svolto in Italia dai sindacati sul tema della flessibilità. In tal senso, l’autore evidenzia come la funzione “istituzionale” cui sono chiamate anche le organizzazioni dei lavoratori abbia caratterizzato le scelte di politica sindacale in materia di lavori temporanei; è così preso in esame il concetto di flessibilità “contrattata”, come già emerso in dottrina, e si teorizza la differenza tra rinvii “aperti” e rinvii “chiusi”, quali differenti forme di delega di potere normativo alle parti sociali in materia di flessibilità. Nel terzo ed ultimo capitolo l’autore tenta di evidenziare i vantaggi e le funzioni che derivano dall’utilizzo del contratto a termine, quale principale forma di impiego flessibile del nostro mercato del lavoro. Premessi tali benefici viene formulato un giudizio critico rispetto al grado di liberalizzazione che, con le ultime riforme, è stato ammesso per questo istituto sempre più strumento di arbitrio del datore di lavoro nella scelta della durata e delle condizioni di svolgimento della prestazione di lavoro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Poiché le infestazioni parassitarie dei rettili in cattività possono incidere sulla loro salute, è stato condotto uno studio sui parassiti intestinali e gli ectoparassiti su 213 rettili del Bioparco di Roma. In cattività, dove gli animali sono confinati in piccoli spazi, la concentrazione di parassiti può essere più alta. Alcuni di essi sono innocui, ma altri, specialmente in associazione allo stress, possono essere pericolosi, causare malattie e portare anche alla morte se non trattati. Inoltre, i rettili parassitati hanno una vita più breve, sono più suscettibili ad altre malattie, hanno scarsa fertilità, ridotta crescita ed alta mortalità. Tra Gennaio 2012 e Dicembre 2014 sono stati raccolti campioni da 213 rettili che non mostravano alcun segno clinico e che includevano 23 specie di sauri, 20 specie di cheloni, 20 specie di ofidi e 4 specie di alligatori. I campioni sono stati esaminati per la presenza di parassiti intestinali mediante copromicroscopia di tipo qualitativo previa sedimentazione e successiva flottazione, mentre la tecnica di Zihel-Neelsen è stata usata per la ricerca di oocisti di Cryptosporidium . I campioni di feci sottoposti ad esame copromicroscopico qualitativo sono risultati positivi per almeno una tipologia di endoparassiti nel 49% dei casi. Il 35% dei campioni è risultato positivo per ossiuri, il 22% per coccidi, l’1% per strongili ed il 5% per ascaridi. Degli strisci fecali colorati con la tecnica di Zihel-Neelsen, il 25% sono risultati positivi per Cryptosporidium spp. Ossiuri e coccidi sono stati più prevalenti nei sauri rispetto ai cheloni, agli ofidi e agli alligatori e nel 14% è stata osservata la presenza di entrambi. Inoltre, per quanto riguarda gli ectoparassiti, sono state rilevate uova di Myocoptes musculinus nel 24% dei rettili esaminati. Tutti gli strisci risultati positivi per Cryptosporidium spp. sono stati inviati all’Università di Santiago de Compostela per essere sottoposti alla tecnica PCR.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tesi riprende un tema che è stato oggetto in passato di studi anche molto approfonditi; oggi sembra essere tornato alla ribalta grazie ad alcuni contributi che hanno nuovamente stimolato la dottrina a confrontarsi su aspetti così delicati anche alla luce della crisi economica. E'stato da sempre rilevato che la buona scrittura delle norme è un fattore fondamentale per il rilancio dell’economia del paese, per la semplificazione e per garantire ordine, coerenza e chiarezza all’ordinamento giuridico. La prima parte è incentrata su una ricostruzione storica e giuridica delle fonti che hanno disciplinato le “regole per la qualità delle regole”, oltre ad una panoramica della dottrina che si è occupata in passato del tema. Segue l’individuazione specifica di quali sono le regole formali e sostanziali di drafting. In particolare, una parte è dedicata alla giurisprudenza costituzionale per comprendere se esiste o meno un aggancio per la Corte Costituzionale da permetterle il sindacato sulle “regole oscure” e dichiararle illegittime. La seconda parte analizza le pressai, in particolare si è scelto di analizzare il rapporto tra Governo e Parlamento nelle problematiche principali che attengono al procedimento legislativo e alla cornice entro la quale viene esplicato in relazione alla decretazione d’urgenza, maxiemendamenti, questione di fiducia, istruttoria in commissione, gruppi di pressione. Ciò che è stato rilevato, è una scarsa aderenza ai principi e ai criteri di better regulation, peraltro difficilmente giustiziabili da parte della Corte costituzionale e sottratti al controllo di chi, al contrario, ha competenza in questo settore, ossia il Comitato per la legislazione e il DAGL. Le conclusioni, pertanto, prendono le mosse da una serie di criticità rilevate e tentano di tracciare una strada da percorrere che sia rispettosa dei canoni della “better regulation” anche alla luce delle riforme costituzionali e dei regolamenti parlamentari in corso di approvazione.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Una stampa libera e plurale è un elemento fondante di ogni sistema democratico ed è fondamentale per la creazione di un’opinione pubblica informata e in grado di esercitare controllo e pressione sulle classi dirigenti. Dal momento della loro creazione i giornali si sono imposti come un’importantissima fonte di informazione per l’opinione pubblica. La seconda metà del Novecento, inoltre, ha conosciuto innovazioni tecnologiche che hanno portato grandi cambiamenti nel ruolo della carta stampata come veicolo di trasmissione delle notizie. Partendo dalla diffusione della televisione fino ad arrivare alla rivoluzione digitale degli anni ’90 e 2000, la velocità di creazione e di trasmissione delle informazioni è aumentata esponenzialmente, i costi di produzione e di acquisizione delle notizie sono crollati e una quantità enorme di dati, che possono fornire moltissime informazioni relative alle idee e ai contenuti proposti dai diversi autori nel corso del tempo, è ora a disposizione di lettori e ricercatori. Tuttavia, anche se grazie alla rivoluzione digitale i costi materiali dei periodici si sono notevolmente ridotti, la produzione di notizie comporta altre spese e pertanto si inserisce in un contesto di mercato, sottoposto alle logiche della domanda e dell'offerta. In questo lavoro verrà analizzato il ruolo della domanda e della non perfetta razionalità dei lettori nel mercato delle notizie, partendo dall’assunto che la differenza di opinioni dei consumatori spinge le testate a regolare l’offerta di contenuti, per venire incontro alla domanda di mercato, per verificare l’applicabilità del modello utilizzato (Mullainhatan e Shleifer, 2005) al contesto italiano. A tale scopo si è analizzato il comportamento di alcuni quotidiani nazionali in occasione di due eventi che hanno profondamente interessato l'opinione pubblica italiana: il fenomeno dei flussi migratori provenienti dalla sponda sud del Mediterraneo nel mese di ottobre 2013 e l'epidemia di influenza H1N1 del 2009.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La terapia di resincronizzazione cardiaca (TRC) è un presidio non farmacologico che riduce la mortalità e la morbosità nei pazienti con scompenso refrattario alla terapia medica. La maggior parte dei dati riguardanti gli effetti della TRC coinvolgono i pazienti con le indicazioni consolidate seguenti: classe NYHA III-IV, ritardo della conduzione ventricolare (QRS>opp= 20 msec), disfunzione sistolica ventricolare sinistra (frazione di eiezione ventricolare sinistra >opp= 35%) e ritmo sinusale (RS). Mentre è noto che la fibrillazione atriale permanente (FA) sia presente in una porzione consistente dei pazienti con scompenso cardiaco, vi sono pochi dati riguardanti la sopravvivenza e gli effetti a lungo-termine della TRC in pazienti con scompenso cardiaco e fibrillazione atriale (FA); la maggior parte degli studi sono osservazionali ed hanno dimostrato che la TRC potrebbe conferire dei benefici a corto e medio termine anche in pazienti con FA permanente. Solo recentemente un ampio studio osservazionale ha descritto che, a lungo-termine, la TRC migliora significativamente la capacità funzionale, la frazione di eiezione e induce il rimodellamento inverso del ventricolo sinistro solamente in quei pazienti con FA dove la TRC viene combinata con l’ablazione del nodo atrio-ventricolare (NAV). La strategia ablativa del NAV infatti conferendo una stimolazione completa e costante, permette di eliminare gli effetti del ritmo spontaneo di FA (ritmo irregolare e tendenzialmente tachicardico) cheinterferisce in maniera importante con la stimolazione biventricolare in particolare durante gli sforzi fisici. Sulla base di queste premesse il presente studio si propone di valutare gli effetti a lungo-termine della TRC su pazienti con scompenso cardiaco e FA permanente focalizzando su due aspetti principali: 1) confrontando la sopravvivenza di pazienti con FA permanente rispetto ai pazienti in RS; 2) confrontando la sopravvivenza di pazienti in FA suddivisi secondo la modalità di controllo della frequenza con somministrazione di farmaci antiaritmici (gruppo FA-farm) oppure mediante controllo ablazione del NAV (gruppo FA-abl). Metodi e risultati: Sono presentati i dati di 1303 pazienti sottoposti consecutivamente ad impianto di dispositivo per la TRC e seguiti per un periodo mediano di 24 mesi. Diciotto pazienti sono stati persi durante il follow-up per cui la popolazione dello studio è rappresentata da una popolazione totale di 1295 pazienti di cui 1042 in RS e 243 (19%) in FA permanente. Nei pazienti con FA il controllo della frequenza cardiaca è stato effettuato mediante la somministrazione di farmaci anti-aritmici (gruppo FA-farm: 125 pazienti) oppure mediante ablazione del NAV (FA-abl: 118 pazienti). Rispetto ai pazienti in RS, i pazienti in FA permanente erano significativamente più vecchi, più spesso presentavano eziologia nonischemica, avevano una frazione di eiezione più elevata al preimpianto, una durata del QRS minore e erano più raramente trattati con un defibrillatore. Lungo un follow-up mediano di 24 mesi, 170/1042 pazienti in RS e 39/243 in FA sono deceduti (l’incidenza di mortalità a 1 anno era di 8,4% e 8,9%, rispettivamente). I rapporti di rischio derivanti dall’analisi multivariata con il 95% dell’intervallo di confidenza (HR, 95% CI) erano simili sia per la morte per tutte le cause che per la morte cardiaca (0.9 [0.57-1.42], p=0.64 e 1.00 [0.60-1.66] p=0.99, rispettivamente). Fra i pazienti con FA, il gruppo FA-abl presentava una durata media del QRS minore ed era meno frequentemente trattato con il defibrillatore impiantabile rispetto al gruppo FA-farm. Soli 11/118 pazienti del FA-abl sono deceduti rispetto a 28/125 nel gruppo FA-farm (mortalità cumulativa a 1 anno di 9,3% e 15,2% rispettivamente, p<0.001), con HR, 95% CI per FA-abl vs FA-farm di 0.15 [0.05-0.43],,p<0.001 per la mortalità per tutte le cause, di 0.18 [0.06-0.57], p=0.004 per la mortalità cardiaca, e di 0.09 [0.02-0.42], p<0.002 per la mortalità da scompenso cardiaco. Conclusioni: I pazienti con scompenso cardiaco e FA permanente trattati con la TRC presentano una simile sopravvivenza a lungo-termine di pazienti in RS. Nei pazienti in FA l’ablazione del NAV in aggiunta alla TRC migliora significativamente la sopravvivenza rispetto alla sola TRC; questo effetto è ottenuto primariamente attraverso una riduzione della morte per scompenso cardiaco.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli impianti utilizzati per la produzione di energia elettrica che sfruttano l'energia solare, quali la tecnologia solare a concentrazione (Solare Termodinamico) sviluppata da ENEA, per minimizzare le dispersioni di calore è necessaria una elevata selettività spettrale. Per ottimizzare l'efficienza dell'impianto è quindi necessario lo sviluppo di materiali innovativi, in grado di minimizzare la quantità di energia dispersa per riflessione. In questo studio, per incrementare la trasmittanza solare dei componenti in vetro presenti nei tubi ricevitori dell'impianto, sono state utilizzate tipologie diverse di rivestimenti antiriflesso (multistrato e a singolo strato poroso). I rivestimenti sono stati ottenuti mediante via umida, con tecnica di sol-gel dip-coating. I sol coprenti sono stati preparati da alcossidi o sali metallici precursori degli ossidi che costituiscono il rivestimento. Sono state approfondite sia la fase di sintesi dei sol coprenti, sia la fase di deposizione sul substrato, che ha richiesto la progettazione e realizzazione di una apparecchiatura prototipale, ossia di un dip-coater in grado di garantire un accurato controllo della velocità di emersione e dell'ambiente di deposizione (temperatura e umidità). Il materiale multistrato applicato su vetro non ha migliorato la trasmittanza del substrato nell'intervallo di lunghezze d'onda dello spettro solare, pur presentando buone caratteristiche antiriflesso nell'intervallo dell'UV-Vis. Al contrario, l'ottimizzazione del rivestimento a base di silice porosa, ha portato all'ottenimento di indici di rifrazione molto bassi (1.15 to 1.18) e ad un incremento della trasmittanza solare dal 91.5% al 96.8%, efficienza superiore agli attuali rivestimenti disponibili in commercio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obiettivo della tesi riguarda l’utilizzo di immagini aerofotogrammetriche e telerilevate per la caratterizzazione qualitativa e quantitativa di ecosistemi forestali e della loro evoluzione. Le tematiche affrontate hanno riguardato, da una parte, l’aspetto fotogrammetrico, mediante recupero, digitalizzazione ed elaborazione di immagini aeree storiche di varie epoche, e, dall’altra, l’aspetto legato all’uso del telerilevamento per la classificazione delle coperture al suolo. Nel capitolo 1 viene fatta una breve introduzione sullo sviluppo delle nuove tecnologie di rilievo con un approfondimento delle applicazioni forestali; nel secondo capitolo è affrontata la tematica legata all’acquisizione dei dati telerilevati e fotogrammetrici con una breve descrizione delle caratteristiche e grandezze principali; il terzo capitolo tratta i processi di elaborazione e classificazione delle immagini per l’estrazione delle informazioni significative. Nei tre capitoli seguenti vengono mostrati tre casi di applicazioni di fotogrammetria e telerilevamento nello studio di ecosistemi forestali. Il primo caso (capitolo 4) riguarda l’area del gruppo montuoso del Prado- Cusna, sui cui è stata compiuta un’analisi multitemporale dell’evoluzione del limite altitudinale degli alberi nell’arco degli ultimi cinquant’anni. E’ stata affrontata ed analizzata la procedura per il recupero delle prese aeree storiche, definibile mediante una serie di successive operazioni, a partire dalla digitalizzazione dei fotogrammi, continuando con la determinazione di punti di controllo noti a terra per l’orientamento delle immagini, per finire con l’ortorettifica e mosaicatura delle stesse, con l’ausilio di un Modello Digitale del Terreno (DTM). Tutto ciò ha permesso il confronto di tali dati con immagini digitali più recenti al fine di individuare eventuali cambiamenti avvenuti nell’arco di tempo intercorso. Nel secondo caso (capitolo 5) si è definita per lo studio della zona del gruppo del monte Giovo una procedura di classificazione per l’estrazione delle coperture vegetative e per l’aggiornamento della cartografia esistente – in questo caso la carta della vegetazione. In particolare si è cercato di classificare la vegetazione soprasilvatica, dominata da brughiere a mirtilli e praterie con prevalenza di quelle secondarie a nardo e brachipodio. In alcune aree sono inoltre presenti comunità che colonizzano accumuli detritici stabilizzati e le rupi arenacee. A questo scopo, oltre alle immagini aeree (Volo IT2000) sono state usate anche immagini satellitari ASTER e altri dati ancillari (DTM e derivati), ed è stato applicato un sistema di classificazione delle coperture di tipo objectbased. Si è cercato di definire i migliori parametri per la segmentazione e il numero migliore di sample per la classificazione. Da una parte, è stata fatta una classificazione supervisionata della vegetazione a partire da pochi sample di riferimento, dall’altra si è voluto testare tale metodo per la definizione di una procedura di aggiornamento automatico della cartografia esistente. Nel terzo caso (capitolo 6), sempre nella zona del gruppo del monte Giovo, è stato fatto un confronto fra la timberline estratta mediante segmentazione ad oggetti ed il risultato di rilievi GPS a terra appositamente effettuati. L’obiettivo è la definizione del limite altitudinale del bosco e l’individuazione di gruppi di alberi isolati al di sopra di esso mediante procedure di segmentazione e classificazione object-based di ortofoto aeree in formato digitale e la verifica sul campo in alcune zone campione dei risultati, mediante creazione di profili GPS del limite del bosco e determinazione delle coordinate dei gruppi di alberi isolati. I risultati finali del lavoro hanno messo in luce come le moderne tecniche di analisi di immagini sono ormai mature per consentire il raggiungimento degli obiettivi prefissi nelle tre applicazioni considerate, pur essendo in ogni caso necessaria una attenta validazione dei dati ed un intervento dell’operatore in diversi momenti del processo. In particolare, le operazioni di segmentazione delle immagini per l’estrazione di feature significative hanno dimostrato grandi potenzialità in tutti e tre i casi. Un software ad “oggetti” semplifica l’implementazione dei risultati della classificazione in un ambiente GIS, offrendo la possibilità, ad esempio, di esportare in formato vettoriale gli oggetti classificati. Inoltre dà la possibilità di utilizzare contemporaneamente, in un unico ambiente, più sorgenti di informazione quali foto aeree, immagini satellitari, DTM e derivati. Le procedure automatiche per l’estrazione della timberline e dei gruppi di alberi isolati e per la classificazione delle coperture sono oggetto di un continuo sviluppo al fine di migliorarne le prestazioni; allo stato attuale esse non devono essere considerate una soluzione ottimale autonoma ma uno strumento per impostare e semplificare l’intervento da parte dello specialista in fotointerpretazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le soluzioni tecnologiche rese oggi disponibili dalle discipline della moderna Geomatica, offrono opportunità di grande interesse per il rilevamento nel settore dei Beni Culturali, sia per quanto riguarda il momento primario del rilievo, cioè la fase di acquisizione del dato metrico, sia per quanto concerne la questione della rappresentazione per oggetti di interesse archeologico, artistico, architettonico. Lo studio oggetto della presente tesi si propone, sulla base di numerose esperienze maturate nel corso del Dottorato dal Laboratorio di Topografia e Fotogrammetria del DISTART, di affrontare e approfondire le problematiche connesse all’utilizzo della fotogrammetria digitale e del laser a scansione terrestre per applicazioni nell’ambito dei Beni Culturali. La ricerca condotta è prettamente applicata, quindi è stata primaria l’esigenza di avere a disposizione reali casi di studio su cui sperimentare le tecniche di interesse; è però importante sottolineare che questo è un campo in cui ogni esperienza presenta proprie caratteristiche e peculiarità che la rendono interessante e difficilmente descrivibile con schemi convenzionali e metodologie standardizzate, quindi le problematiche emerse hanno di volta in volta indirizzato e spinto la ricerca all’approfondimento di certi aspetti piuttosto che altri. A tal proposito è stato evidenziato dalle esperienze effettuate che il campo dei Beni Culturali è forse il più emblematico delle potenzialità rese oggi disponibili dalle moderne tecnologie della Geomatica, e soprattutto dalle possibilità offerte da un approccio integrato e multi – disciplinare di tecniche e tecnologie diverse; per questo nell’Introduzione si è voluto sottolineare questo aspetto, descrivendo l’approccio metodologico adottato in molti lavori in contesto archeologico, che include generalmente diverse tecniche integrate tra loro allo scopo di realizzare in modo veloce e rigoroso un rilievo multi – scala che parte dal territorio, passa attraverso l’area del sito archeologico e degli scavi, ed arriva fino al singolo reperto; questo approccio è caratterizzato dall’avere tutti i dati e risultati in un unico e ben definito sistema di riferimento. In questa chiave di lettura l’attenzione si è poi focalizzata sulle due tecniche che rivestono oggi nel settore in esame il maggiore interesse, cioè fotogrammetria digitale e laser a scansione terrestre. La struttura della tesi segue le fasi classiche del processo che a partire dal rilievo porta alla generazione dei prodotti di rappresentazione; i primi due capitoli, incentrati sull’acquisizione del dato metrico, riguardano quindi da un lato le caratteristiche delle immagini e dei sensori digitali, dall’altro le diverse tipologie di sistemi laser con le corrispondenti specifiche tecniche; sempre nei primi capitoli vengono descritte le caratteristiche metodologiche e tecnico – operative e le relative problematiche delle due tipologie di rilievo. Segue un capitolo sulle procedure di calibrazione delle camere digitali non professionali, imperniato sull’utilizzo di software diversi, commerciali e sviluppati in house per questo scopo, prestando attenzione anche agli strumenti che essi offrono in termini di risultati ottenibili e di controllo statistico sugli stessi. La parte finale della tesi è dedicata al problema della rappresentazione, con l’obiettivo di presentare un quadro generale delle possibilità offerte dalle moderne tecnologie: raddrizzamenti, ortofoto, ortofoto di precisione e infine modelli tridimensionali foto – realistici, generati a partire sia da dati fotogrammetrici sia da dati laser.