1000 resultados para deriva escultórica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’acido adipico (AA) è un importante intermedio chimico prodotto in quantità pari a circa tre milioni di tonnellate annue, i cui usi riguardano principalmente la produzione di Nylon-6,6. Tutti i processi industriali odierni per la produzione dell’AA hanno in comune lo stadio finale di ossidazione con acido nitrico dell’ultimo intermedio di sintesi, che in genere è una miscela di cicloesanolo e cicloesanone (KA Oil). Esistono diversi problemi riguardanti questo processo, come la pericolosità che deriva dall’uso di acido nitrico concentrato. Dal punto di vista ambientale, il problema principale riguarda la produzione di protossido di azoto e di altri ossidi di azoto durante l’ultima fase di ossidazione con HNO3, per questo motivo, tutte le aziende che producono AA devono essere munite per legge di sistemi di abbattimento quantitativi o di recupero degli ossidi di azoto, che però risultano essere molto incisivi sul costo del processo. A livello industriale, quindi, il problema riguarda principalmente la sostenibilità economica, ma poiché queste procedure hanno un prezzo in termini di materiali ed energia, si ha anche un forte legame con la sostenibilità ambientale. Gli studi riguardanti nuovi processi per la produzione di AA sono numerosi; alcuni hanno portato a vie più “green”, ma solo pochi esempi sono veramente sostenibili dal punto di vista sia ambientale che economico. Il presente lavoro di tesi è diviso in due parti, entrambe riguardanti vie di sintesi alternative per la produzione di AA. La prima parte riguarda lo studio del secondo passaggio di una via di sintesi in due step che parte da cicloesene e che ha come intermedio l’1,2-cicloesandiolo.Sono stati provati catalizzatori eterogenei a base di nanoparticelle di Au supportate su MgO per il cleavage ossidativo in fase liquida del diolo con O2 in ambiente basico. La seconda parte invece riguarda il processo di sintesi dell’AA a partire da cicloesanone mediante l’ossidazione con perossido di idrogeno a e- caprolattone e la successiva ossidazione ad AA. Nello specifico, è stato studiato il meccanismo di reazione del primo passaggio in quanto evidenze sperimentali ottenute nel corso di lavori precedenti avevano dimostrato la presenza di un cammino di reazione differente da quello tipico per un’ossidazione di Baeyer-Villiger. In questa parte, si è studiato l’effetto di alcuni catalizzatori eterogenei a base di acidi di Lewis sui prodotti ottenuti nel primo stadio ossidativo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Procedures for quantitative walking analysis include the assessment of body segment movements within defined gait cycles. Recently, methods to track human body motion using inertial measurement units have been suggested. It is not known if these techniques can be readily transferred to clinical measurement situations. This work investigates the aspects necessary for one inertial measurement unit mounted on the lower back to track orientation, and determine spatio-temporal features of gait outside the confines of a conventional gait laboratory. Apparent limitations of different inertial sensors can be overcome by fusing data using methods such as a Kalman filter. The benefits of optimizing such a filter for the type of motion are unknown. 3D accelerations and 3D angular velocities were collected for 18 healthy subjects while treadmill walking. Optimization of Kalman filter parameters improved pitch and roll angle estimates when compared to angles derived using stereophotogrammetry. A Weighted Fourier Linear Combiner method for estimating 3D orientation angles by constructing an analytical representation of angular velocities and allowing drift free integration is also presented. When tested this method provided accurate estimates of 3D orientation when compared to stereophotogrammetry. Methods to determine spatio-temporal features from lower trunk accelerations generally require knowledge of sensor alignment. A method was developed to estimate the instants of initial and final ground contact from accelerations measured by a waist mounted inertial device without rigorous alignment. A continuous wavelet transform method was used to filter and differentiate the signal and derive estimates of initial and final contact times. The technique was tested with data recorded for both healthy and pathologic (hemiplegia and Parkinson’s disease) subjects and validated using an instrumented mat. The results show that a single inertial measurement unit can assist whole body gait assessment however further investigation is required to understand altered gait timing in some pathological subjects.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La mia sperimentazione si inserisce in un progetto di respiro nazionale- “AGER-STAY FRESH”- volto a trovare soluzioni di lavaggio alternative al cloro per il prolungamento della shelf-life delle produzioni di IV gamma. Questi prodotti rappresentano, attualmente, uno dei più promettenti ed innovativi comparti del settore ortofrutticolo e sono definiti, secondo le norme della Comunità Europea, prodotti minimamente trasformati, cioè soggetti a interventi tecnologici ridotti, ed utilizzabili per il consumo diretto senza ulteriori manipolazioni, o con manipolazioni minime. La loro espansione sul mercato deriva dal fatto che sono in grado di offrire alta convenienza, alto valore nutrizionale ed organolettico e sono concepiti dai consumatori come prodotti “genuini” in quanto a base vegetale e, generalmente, non contengono sostanze antimicrobiche. Tuttavia, le materie prime vegetali utilizzate per le produzioni di IV gamma sono spesso caratterizzate da elevate contaminazioni microbiche (4-6 log UFC/g) poiché, durante la crescita o il post-raccolta, frutti o vegetali vengono a contatto con il suolo, insetti o contaminazioni di origine umana.Al momento la shelf-life e la sicurezza d’uso di questa categoria di prodotti sono basate principalmente sul mantenimento della catena del freddo unitamente alla fase di lavaggio delle materie prime con sostanze clorate. Recentemente, però, alcuni autori hanno evidenziato alcuni svantaggi derivanti da questa fase di processo come la formazione di composti clorati cancerogeni. In questa prospettiva, il principale obiettivo di questo lavoro di tesi è stato quello di valutare gli effetti di olio essenziale di cedro e alcuni composti bioattivi degli oli essenziali (citrale, esanale, trans-2-esenale e carvacrolo), utilizzati singolarmente o in combinazione, sulla shelf-life di mele affettate di IV gamma. Su tutti i prodotti sono state eseguite analisi microbiologiche, di texture e colore. Un ulteriore obiettivo di questo lavoro sperimentale è stato quello di ottimizzare alcuni parametri di processo come la riduzione del rapporto acqua di lavaggio/prodotto ed incrementare la temperatura dell’acqua utilizzata al fine di meglio solubilizzare gli antimicrobici in fase di dipping.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il fenomeno dello scattering diffuso è stato oggetto di numerosi studi nell’arco degli ultimi anni, questo grazie alla sua rilevanza nell’ambito della propagazione elettromagnetica così come in molti altri campi di applicazione (remote sensing, ottica, fisica, etc.), ma la compresione completa di questo effetto è lungi dall’essere raggiunta. Infatti la complessità nello studio e nella caratterizzazione della diffusione deriva dalla miriade di casistiche ed effetti che si possono incontrare in un ambiente di propagazione reale, lasciando intuire la necessità di trattarne probabilisticamente il relativo contributo. Da qui nasce l’esigenza di avere applicazioni efficienti dal punto di vista ingegneristico che coniughino la definizione rigorosa del fenomeno e la conseguente semplificazione per fini pratici. In tale visione possiamo descrivere lo scattering diffuso come la sovrapposizione di tutti quegli effetti che si scostano dalle classiche leggi dell’ottica geometrica (riflessione, rifrazione e diffrazione) che generano contributi del campo anche in punti dello spazio e direzioni in cui teoricamente, per oggetti lisci ed omogenei, non dovrebbe esserci alcun apporto. Dunque l’effetto principale, nel caso di ambiente di propagazione reale, è la diversa distribuzione spaziale del campo rispetto al caso teorico di superficie liscia ed omogenea in congiunzione ad effetti di depolarizzazione e redistribuzione di energia nel bilancio di potenza. Perciò la complessità del fenomeno è evidente e l’obiettivo di tale elaborato è di proporre nuovi risultati che permettano di meglio descrivere lo scattering diffuso ed individuare altresì le tematiche sulle quali concentrare l’attenzione nei lavori futuri. In principio è stato quindi effettuato uno studio bibliografico così da identificare i modelli e le teorie esistenti individuando i punti sui quali riflettere maggiormente; nel contempo si sono analizzate le metodologie di caratterizzazione della permittività elettrica complessa dei materiali, questo per valutare la possibilità di ricavare i parametri da utilizzare nelle simulazioni utilizzando il medesimo setup di misura ideato per lo studio della diffusione. Successivamente si è realizzato un setup di simulazione grazie ad un software di calcolo elettromagnetico (basato sul metodo delle differenze finite nel dominio del tempo) grazie al quale è stato possibile analizzare la dispersione tridimensionale dovuta alle irregolarità del materiale. Infine è stata condotta una campagna di misure in camera anecoica con un banco sperimentale realizzato ad-hoc per effettuare una caratterizzazione del fenomeno di scattering in banda larga.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il contesto nazionale è cambiato recentemente per l’introduzione del nuovo Sistema Geodetico coincidente con quello Europeo (ETRS89, frame ETRF00) e realizzato dalle stazioni della Rete Dinamica Nazionale. Sistema geodetico, associato al cartografico UTM_ETRF00, divenuto per decreto obbligatorio nelle Pubbliche Amministrazioni. Questo cambiamento ha consentito di ottenere rilevamenti dei dati cartografici in coordinate assolute ETRF00 molto più accurate. Quando i dati così rilevati vengono utilizzati per aggiornamenti cartografici perdono le coordinate originarie e vengono adattati a particolari cartografici circostanti. Per progettare una modernizzazione delle mappe catastali e delle carte tecniche finalizzata a consentire l’introduzione degli aggiornamenti senza modificarne le coordinate assolute originarie, lo studio è iniziato valutando come utilizzare sviluppi di strutturazione dei dati topografici presenti nel Database Geotopografico, modellizzazioni 3D di fabbricati nelle esperienze catastali INSPIRE, integrazioni in ambito MUDE tra progetti edilizi e loro realizzazioni. Lo studio è proseguito valutando i servizi di posizionamento in tempo reale NRTK presenti in Italia. Inoltre sono state effettuate sperimentazioni per verificare anche in sede locale la precisione e l’affidabilità dei servizi di posizionamento presenti. La criticità della cartografia catastale deriva sostanzialmente dal due fatti: che originariamente fu inquadrata in 850 Sistemi e successivamente fu trasformata in Roma40 con una esigua densità di punti rimisurati; che fino al 1988 fu aggiornata con modalità non rigorose di bassa qualità. Per risolvere tali criticità si è quindi ipotizzato di sfruttare le modalità di rilevamento NRTK per aumentare localmente la densità dei punti rimisurati e reinquadrare le mappe catastali. Il test, realizzato a Bologna, ha comportato un’analisi preliminare per individuare quali Punti Fiduciali considerare coerenti con le specifiche cartografiche per poi utilizzarli e aumentare localmente la densità dei punti rimisurati. La sperimentazione ha consentito la realizzazione del progetto e di inserire quindi i prossimi aggiornamenti senza modificarne le coordinate ETRF00 ottenute dal servizio di posizionamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Stratigraphic studies carried out over the last decades in Italy and elsewhere testify a growing interest in Quaternary deposits and in the influence of climate change on their architecture. The subsurface of the Po Plain, in its topmost portion, is made up of alluvial deposits organized in depositional cycles at different scales. This PhD thesis provides millennial-scale stratigraphic reconstruction of the Late Pleistocene-Holocene deposits beneath the southern Po Plain, based on basin-scale correlation of laterally-extensive buried soil horizons. Far from the aim of characterizing palaeosols from a mineralogical and geochemical point of view, we focused on the physical and stratigraphic significance of these horizons. In the Bologna urban area, which hosts an abundance of stratigraphic data, the correlation between seventeen continuously-cored boreholes led to the identification of five vertically-stacked palaeosol-bounded sequences within the 14C time window. In a wide portion of the alluvial plain north of Bologna, far away from the Apenninic margin and from the Po River, where subsurface stratigraphic architecture is dominated by markedly lenticular sediment bodies, palaeosols revealed to be the only stratigraphic marker of remarkable lateral continuity. These horizons are characterized by peculiar resistance values, which make them easily identifiable via pocket penetration tests. Palaeosols reveal specific geometric relationships with the associated alluvial facies associations, allowing reliable estimates of soil development as a function of alluvial dynamics. With the aid of sixty new radiocarbon dates, a reliable age attribution and likely time intervals of exposure were assigned to each palaeosol. Vertically-stacked palaeosols delimitate short-term depositional cycles, likely related to the major episodes of climatic change of the last 40 ky. Through integration of stratigraphic data with 750 archaeological reports from the Bologna area, the impact of human settlements on depositional and pedogenic processes during the late Holocene was investigated.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oggetto di questa tesi e la riqualificazione dell'Istituto Tecnico Industriale Statale Giovanni Marconi di Forli; riqualificazione intesa come efficientamento energetico dell'intero complesso, per farlo entrare in classe energetica A (<8 kWh/m3a), ed intesa anche, e soprattutto, come miglioramento delle condizioni di benessere degli utenti sotto piu aspetti, come il comfort visivo, quello acustico, la qualita dell'aria interna, la sensibilizzazione dell'utenza su diversi aspetti (energetici, ambientali, storici) ed il rinnovo della comunicazione all'interno dell'istituto. L'interesse per questo tema deriva direttamente dal lavoro svolto nel Laboratorio di Laurea in Architettura Sostenibile, di cui questa tesi e il naturale sviluppo, nato da una collaborazione pluriennale tra il comune di Forli e il Dipartimento di Architettura dell'Università di Bologna. Le richieste della committenza sono esplicabili in pochi punti: - Mantenimento della destinazione d'uso dell'edificio - Mantenimento dell'immagine e della matericita esterna del complesso - Riqualifica di V.le della Liberta Le richieste provenienti dal Laboratorio di Laurea si limitano al raggiungimento di una classificazione di tipo A per quanto riguarda le prestazioni energetiche dell'edificio, che a seguito di attente analisi e simulazioni risulta essere in classe C. E' un edificio dalla storia importante, con un'autorevole identita, che padroneggia Viale della Liberta insieme ad altri edifici pubblici dai simili pregi storico architettonici. Per questi ed altri motivi tutte le scelte operate per il raggiungimento degli obiettivi preposti sono state prese tenendo a mente questi valori che l'edificio ed il suo intorno urbano possiedono. Un ulteriore aspetto preso in considerazione nell'elaborazione di questa tesi e quello che concerne la riqualifica di Viale della Liberta, il quale presenta numerosi aspetti critici che abbiamo affrontato con lo stesso rispetto per la storia usato per l'Istituto. L'intento di questa tesi e quindi quello di conciliare il rispetto per l'ambiente con quello per le pre-esistenze, soprattutto quando hanno un elevato valore storico architettonico, cercando di dimostrare che storia, sostenibilita ambientale ed innovazione possono conciliarsi: tre aspetti con cui sempre piu spesso i progettisti debbono confrontarsi, dato il vastissimo parco architettonico esistente che possediamo e data l'impossibilita di ignorare l'impatto ambientale e gli sprechi energetici che questo patrimonio edilizio procura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’effettività della tutela cautelare, intesa come tutela tempestiva, adeguata e piena, è stata la linea cardine dell’evoluzione della giustizia amministrativa, che, nel corso di un periodo durato più di un secolo, grazie all’opera della giurisprudenza e della dottrina, si è strutturata oggi su un vero processo. Approdo recente, e allo stesso tempo, simbolo di questa evoluzione, è sicuramente il Codice del processo amministrativo emanato con il d. lgs. 2 luglio 2010, n. 104. La ricerca, di cui questo contributo costituisce un resoconto, è iniziata contestualmente all’entrata in vigore del nuovo testo, e quindi è stata anche l’occasione per vederne le prime applicazioni giurisprudenziali. In particolare la lettura del Codice, prescindendo da una mera ricognizione di tutto il suo lungo articolato, è stata fatta alla luce di una ponderazione, nell’attualità, non solo del principio di effettività, ma anche del principio di strumentalità che lega tradizionalmente la fase cautelare con la fase di merito. I risultati della ricerca manifestano la volontà del legislatore di confermare questo rapporto strumentale, per fronteggiare una deriva incontrollata verso una cautela dagli effetti alle volte irreversibili, quale verificatasi nell’applicazione giurisprudenziale, ma contestualmente evidenziano la volontà di estendere la portata della tutela cautelare. Guardando a cosa sia diventata oggi la tutela cautelare, si è assistito ad un rafforzamento degli effetti conformativi, tipici delle sentenze di merito ma che si sono estesi alla fase cautelare. I giudici, pur consapevoli che la tutela cautelare non sia una risposta a cognizione piena, bensì sommaria, intendono comunque garantire una tutela tempestiva ed effettiva, anche per il tramite di tecniche processuali particolari, come quella del remand, cui, all’interno della ricerca, viene dedicato ampio spazio. Nella sua ultima parte la ricerca si è focalizzata, sempre volendo guardare in maniera globale agli effetti della tutela cautelare, sul momento dell’esecuzione e quindi sul giudizio di ottemperanza.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesi rappresenta il primo studio dedicato all’interpretazione simultanea dal polacco all’italiano. La presente ricerca cerca di identificare il modo in cui interpreti di comprovata esperienza gestiscono alcune difficoltà tipiche della sintassi polacca fortemente divergenti da quella italiana. La scelta di studiare le catene nominali deriva dal confronto di quanto emerso dalle indagini sulla linguistica contrastiva con un’inchiesta tra gli interpreti accreditati presso le istituzioni europee per quella combinazione. Il primo capitolo è dedicato ad una panoramica sui contatti passati e presenti tra l’Italia e la Polonia e ad una riflessione sulla lingua polacca in chiave contrastiva con l’italiano. Il secondo capitolo si concentra sulla ricerca nell’ambito dell’interpretazione simultanea, in particolare sugli studi contrastivi e sulla discussione delle strategie usate dagli interpreti. Il terzo capitolo approfondisce il contesto di questo studio ovvero le istituzioni europee, il il multilinguismo e il regime linguistico al Parlamento Europeo. Il quarto capitolo include l’indagine del lavoro, condotta su un ampio corpus di dati. Sono stati infatti trascritti e analizzati tutti gli interventi tenuti in lingua polacca in occasione delle sedute parlamentari a Strasburgo e a Bruxelles del 2011 e del primo semestre 2009 e le relative interppretazioni in italiano (per un totale di oltre 9 ore di parlato per lingua). Dall’analisi è risultato che l’interprete nella maggior parte dei casi cerca, nonostante la velocità d’eloquio dell’oratore, di riprodurre fedelmente il messaggio. Tuttavia, qualora questo non risulti possibile, si è notato come gli interpreti ricorrano in maniera consapevole all’omissione di quelle informazioni desumibili o dal contesto o dalle conoscenze pregresse dell’ascoltatore. Di conseguenza la riduzione non rappresenta una strategia di emergenza ma una risorsa da applicare consapevolmente per superare le difficoltà poste da lunghe sequenze di sostantivi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’elaborato utilizza un modello neurale, sviluppato nel lavoro di ricerca del prof. Ursino (2010) e successivamente modificato (2011 e 2012), al fine di analizzare alcuni meccanismi alla base della memoria semantica e lessicale. In particolare, la tesi si riferisce alla versione più recente del modello da cui ne deriva uno più semplificato come possibile modalità con cui l’uomo apprende i concetti, li immagazzina in opportune aree cerebrali e collega tali concetti alla parola corrispondente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il primo obiettivo di questo lavoro di tesi è quello di sviluppare il primo modello matematico di potenziale d'azione pacemaker umano: è vero che gli studi elettrofisiologici pubblicati sull'uomo non hanno ancora raggiunto la mole di risultati ottenuti, invece, sugli altri mammiferi da laboratorio, ma i tempi possono ritenersi "maturi", in quanto i dati disponibili in letteratura sono sufficienti e adeguati allo scopo. Il secondo obiettivo di questo lavoro di tesi nasce direttamente dall'esigenza clinica di definire le relazioni causa-effetto tra la mutazione T78M della proteina caveolina-3 e le varie forme di aritmie cardiache riscontrate, ad essa associate. Lo scopo è quello di stabilire quale sia il link tra genotipo della mutazione e fenotipo risultante, ovvero colmare il gap esistente tra i dati sperimentali in vitro in possesso ed i meccanismi di alterazione delle correnti ioniche affette, per arrivare a osservare l'effetto che ne deriva sull'attività elettrica delle cellule. Proprio in relazione a quest'ultimo punto, i due obiettivi del lavoro convergono: l'analisi degli effetti indotti dalla mutazione T78M è, infatti, effettuata sul modello di potenziale d'azione di nodo senoatriale umano sviluppato (oltre che su altri modelli atriali).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

È impossibile implementare sorgenti autenticamente casuali su hardware digitale. Quindi, storicamente, si è fatto ampio uso di generatori di numeri pseudo-casuali, evitando così i costi necessari per la progettazione di hardware analogico dedicato. Tuttavia, le sorgenti pseudo-casuali hanno proprietà (riproducibilità e periodicità) che si trasformano in vulnerabilità, nel caso in cui vengano adottate in sistemi di sicurezza informatica e all’interno di algoritmi crittografici. Oggi la richiesta di generatori di numeri autenticamente casuali è ai suoi massimi storici. Alcuni importanti attori dell’ICT sviluppato proprie soluzioni dedicate, ma queste sono disponibili solo sui sistemi moderni e di fascia elevata. È quindi di grande attualità rendere fruibili generatori autenticamente casuali per sistemi già esistenti o a basso costo. Per garantire sicurezza e al tempo stesso contenere i costi di progetto è opportuno pensare ad architetture che consentano di riusare parti analogiche già disponibili. Particolarmente interessanti risultano alcune architetture che, grazie all’utilizzo di dinamiche caotiche, consentono di basare buona parte della catena analogica di elaborazione su ADC. Infatti, tali blocchi sono ampiamente fruibili in forma integrata su architetture programmabili e microcontrollori. In questo lavoro, si propone un’implementazione a basso costo ed elevata flessibilità di un architettura basata su un ADC, inizialmente concepita all’Università di Bologna. La riduzione di costo viene ottenuta sfruttando il convertitore già presente all’interno di un microcontrollore. L’elevata flessibilità deriva dal fatto che il microcontrollore prescelto mette a disposizione una varietà di interfacce di comunicazione, tra cui quella USB, con la quale è possibile rendere facilmente fruibili i numeri casuali generati. Quindi, l’intero apparato comprende solo un microcontrollore e una minima catena analogica di elaborazione esterna e può essere interfacciato con estrema facilità ad elaboratori elettronici o sistemi embedded. La qualità della proposta, in termini di statistica delle sequenze casuali generate, è stata validata sfruttando i test standardizzati dall’U.S. NIST.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi tratta dell’amplificatore di potenza (PA–Power Amplifier) operante in classe E. Si tratta di un convertitore DC/AC ad elevato rendimento che può trovare impiego in numerose applicazioni in cui il problema della generazione di calore o la necessità di non sprecare energia sono particolarmente stringenti (ad esempio apparati per cui non è previsto un impianto di raffreddamento e/o apparati alimentati a batteria). L’elevato rendimento di un amplificatore operante in classe E deriva dalle specifiche forme d’onda ai capi del dispositivo attivo impiegato, tali per cui la perdita di commutazione durante la fase di accensione dello switch diviene pressoché trascurabile (Zero-Voltage-Switching e Zero-Derivative-Voltage Turn-ON). Il prezzo da pagare per ottenere queste benefiche forme d’onda è quello di avere un valore di cresta della tensione sul dispositivo che commuta assai più elevato del valore medio, coincidente con la tensione di alimentazione DC. In generale si stima una tensione di picco fra le 3 e le 5 volte più elevata della tensione DC, in funzione del Duty-Cycle e dell’assorbimento di corrente sul carico. Occorre poi tenere presente che in condizioni dinamiche (ad esempio qualora si collegasse direttamente l’amplificatore all’alimentazione) potrebbero innescarsi dei transitori tali per cui la tensione di picco ecceda anche il range suddetto. Per questo motivo è bene porre un limite alla massima tensione di picco adottando dei circuiti di protezione del transistore al fine di evitare la sua distruzione per limiti legati alla tensione di breakdown. Questi circuiti sono denominati clamper: in questa tesi valuteremo le modalità con cui si può implementare tale protezione; valuteremo, inoltre, i vantaggi e gli svantaggi derivanti dall’impiego di tali circuiti. Questi clamper sono prevalentemente di tipo dissipativo (Zener); nel corso della tesi si è studiato la realizzazione di un clamper rigenerativo che utilizza un trasformatore, ma si è constatata la irrealizzabilità fisica a causa della inevitabile presenza della induttanza dispersa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Educare le nuove generazioni all'uso consapevole del web è un'attività di notevole importanza, visto l'utilizzo sempre più intenso che la società contemporanea fa di questo insieme numeroso e variegato di tecnologie, identificato dalla parola "rete''. La rete quindi non è più paragonabile soltanto a un luogo virtuale da visitare ma quasi ad un'"atmosfera" che circonda la realtà stessa, rendendo costantemente vicine possibilità e preoccupazioni sempre nuove. Gli utenti della rete, siano essi "nativi" o "immigrati", si trovano a contatto con questo ambiente mutevole e rapidissimo e ne apprendono regole e usi, riportandoli a volte anche sulla realtà, con maggiore o minore disinvoltura. Le giovani generazioni sono particolarmente permeabili a questo tipo di apprendimento e dimostrano sempre maggiore affinità con lo strumento web, a volte rischiando di confondere il virtuale con il reale. La deriva valoriale e ideologica della società europea ed italiana lascia però dei vuoti che vengono spesso colmati dalle relazioni che sono loro più prossime. Anche quelle on the cloud, nel bene e nel male. Il rischio di scambiare il mezzo con il fine, poi, è sempre presente. La sfida per il sistema educativo, familiare, sociale, è dimostrarsi attento, essere aggiornato sulle tecnologie, è saper valutare attentamente, saper discernere e riconoscere le opere dai loro frutti, per poter condividere l'esperienza umana in tutti i suoi aspetti con coloro che, più di tutti, vanno in cerca di risposte profonde alle loro domande. Non bisogna aver paura di mettersi in gioco, talvolta anche di rischiare, perché la posta in gioco è altissima, è in gioco lo stesso rapporto di scambio e di fiducia tra generazioni differenti. Le maglie delle nostra "rete" di relazioni, di rapporti, di comunicazione, crescono sempre di numero, ma non bisogna promuovere la sola quantità a scapito della qualità della loro sostanza, soprattutto nel caso degli adolescenti. Concludendo, ritengo che nell'educazione al web siano fondamentali: l'attenzione, l'ascolto reciproco, la cura dei dettagli e l'attenzione al rispetto delle regole. La precisione del controllo, il senso del limite e il valore prospettico delle aspettative sono strumenti imprescindibili per costruire giorno dopo giorno una "rete" formata per le persone e non soltanto delle persone formate per la rete.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La geolocalizzazione è il processo tramite il quale è possibile mettere in relazione una certa informazione con un punto specifico della superficie terrestre, individuato tramite metodi di localizzazione (quindi il reperimento delle coordinate latidudinali e longitudinali) di un apparato elettronico, sfruttandone le caratteristiche fisiche o ricevendo informazioni dettagliate dallo strumento stesso. Nello specifico il concetto di geolocalizzazione enfatizza l’aspetto dinamico, riferendosi ad informazioni che possono essere aggiornate di frequente come la posizione e la velocità. La possibilità di rendere dinamico il reperimento di tali informazioni e di poterle rilevare in maniera sempre più dettagliata deriva dalla combinazione di diverse tecnologie che si sono sviluppare nel ventunesimo secolo e che danno ora la possibilità ad ogni dispositivo di poterle comunicare in tempo reale. Grazie alle caratteristiche sopracitate di correlare con immediatezza le informazioni al singolo dispositivo e alla sua posizione geografica, è considerata tra i più rivoluzionari campi di sviluppo in ambito sociale ed economico, pur avendo potenziali problemi legati alla privacy e libertà individuale di non semplice soluzione. In questa tesi analizzerò i vari metodi di posizionamento fino ad oggi studiati, sia indoor (all’interno di edifici) che outdoor (all’esterno). Nel primo capitolo il documento presenta una riflessione storica sull’evoluzione del concetto di localizzazione, partendo dai primi tentativi di navigazione, fino ad arrivare ai più moderni sistemi tecnologici. Nel terzo e quarto capitolo esploro le tecniche esistenti rispettivamente per situazioni indoor e outdoor, tra cui GPS, localizzazione cellulare, sistemi a infrarossi, sistemi a onde radio e a ultrasuoni.Mi soffermerò inoltre sui vantaggi offerti da nuovi dispositivi con gli smartphones. Nel quinto capitolo analizzerò le caratteristiche di ogni istema, comparandole tra di loro. Farò poi riferimento ad alcuni casi reali di utilizzo di tali tecnologie, prima di concludere con alcune considerazioni personali.