104 resultados para Reúso


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il progetto di musealizzazione dell’area archeologica di Suasa pone le basi sullo studio dei legami storici, culturali e paesaggistici che si sono instaurati sin dall’epoca romana e permangono tutt’oggi. Il primo passo parte dallo studio della Salaria Gallica: nasce così la volontà di mantenere la Salaria usufruibile da tutti, richiamando quindi l’interesse di un pubblico di vario target intorno l’area di progetto . Da questa principio si rende quindi necessaria una prima divisione dell’aria in una parte pubblica ed una privata, la prima interessata dalla costruzione di un nuovo spazio polifunzionale, la seconda destinata al mantenimento delle tracce (archeologiche e paesaggistiche). Si rende fondamentale nello spazio pubblico la costruzione di un nuovo edificio che vada ad ospitare funzioni utili alle due aree, una costruzione che è figlia di principi che caratterizzano l’area sin dall’epoca romana: la viabilità antica e le maglie generatrici. Lo spazio privato, reso tale attraverso la costruzione di un limite fisico è a sua volta diviso in due parchi: il parco archeologico e il parco agricolo. Il parco archeologico è interessato dalla costruzione di una copertura atta alla salvaguardia delle tracce di una delle istanze archeologiche di maggior valore : la Domus dei Coiedii. I principi che contraddistinguono il progetto sono quelli di riproporre, a scopo educativo, la volumetria antica della domus, mantenendo però una pianta libera che sottolinei la maestosità che fu. Si ha così una triade di parchi, legati fra loro da elementi ordinatori che nascono da una rilettura di sistemi romani ed una riproposizione di tali. Si tratta degli elementi d’ombra, che riprenderanno le strutture a sacco tipiche romane, e dei percorsi studiati per sottolineare la gerarchia delle tracce.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro mette in evidenza le principali difficoltà che il traduttore di testi specialistici è chiamato ad affrontare durante la pratica della traduzione. In particolar modo, il nostro studio si concentra sulla figura del traduttore che lavora in ambito artistico : oggigiorno la facilità degli spostamenti e il conseguente aumento del turismo culturale hanno reso la traduzione di dépliant, guide turistiche e cataloghi una pratica necessaria e in continua crescita. L’obiettivo prefissato è quello di verificare l’apporto che le risorse lessicografiche e terminologiche attualmente disponibili danno al traduttore di testi a contenuto artistico. Il nostro lavoro si articola in quattro capitoli. Il primo, di stampo teorico, pone l’accento sulla natura polisemica della parola terminologia (disciplina, metodologia e insieme di termini appartenenti ad un ambito specialistico) e sulla distinzione tra pratica terminologica e traduttiva gettando le basi del secondo capitolo che, partendo dall'esposizione degli ostacoli terminologici incontrati dal traduttore, descrive le lacune dei principali dizionari bilingui italiano-francese e delle basi di dati terminologiche oggi a disposizione. Il terzo capitolo, dedicato alla presentazione del progetto Lessico multilingue dei beni culturali (LBC), ne evidenzia i punti di forza e sottolinea la necessità di creare degli strumenti “ibridi”, concepiti per aiutare il traduttore in ambito artistico. Questa conclusione sarà ulteriormente ribadita nel quarto capitolo, di stampo pratico : l’analisi di una quindicina di termini dell’ambito della scultura (estratti dal corpus de La Vita di Michelangelo, appositamente creato nell'ambito del progetto LBC) mostra l’eccessivo numero di strumenti che il traduttore è costretto a consultare per risolvere adeguatamente le difficoltà incontrate, pratica che non rispecchia più il mestiere della traduzione, all'interno della società dell’informazione, sempre più influenzato dalle scadenze imposte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il funzionamento del cervello umano, organo responsabile di ogni nostra azione e pensiero, è sempre stato di grande interesse per la ricerca scientifica. Dopo aver compreso lo sviluppo dei potenziali elettrici da parte di nuclei neuronali in risposta a stimoli, si è riusciti a graficare il loro andamento con l'avvento dell'ElettroEncefaloGrafia (EEG). Tale tecnologia è entrata a far parte degli esami di routine per la ricerca di neuropsicologia e di interesse clinico, poiché permette di diagnosticare e discriminare i vari tipi di epilessia, la presenza di traumi cranici e altre patologie del sistema nervoso centrale. Purtroppo presenta svariati difetti: il segnale è affetto da disturbi e richiede un'adeguata elaborazione tramite filtraggio e amplificazione, rimanendo comunque sensibile a disomogeneità dei tessuti biologici e rendendo difficoltoso il riconoscimento delle sorgenti del segnale che si sono attivate durante l'esame (il cosiddetto problema inverso). Negli ultimi decenni la ricerca ha portato allo sviluppo di nuove tecniche d'indagine, di particolare interesse sono la ElettroEncefaloGrafia ad Alta Risoluzione (HREEG) e la MagnetoEncefaloGrafia (MEG). L'HREEG impiega un maggior numero di elettrodi (fino a 256) e l'appoggio di accurati modelli matematici per approssimare la distribuzione di potenziale elettrico sulla cute del soggetto, garantendo una migliore risoluzione spaziale e maggior sicurezza nel riscontro delle sorgenti neuronali. Il progresso nel campo dei superconduttori ha reso possibile lo sviluppo della MEG, che è in grado di registrare i deboli campi magnetici prodotti dai segnali elettrici corticali, dando informazioni immuni dalle disomogeneità dei tessuti e andando ad affiancare l'EEG nella ricerca scientifica. Queste nuove tecnologie hanno aperto nuovi campi di sviluppo, più importante la possibilità di comandare protesi e dispositivi tramite sforzo mentale (Brain Computer Interface). Il futuro lascia ben sperare per ulteriori innovazioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I dispositivi impiantabili stanno acquisendo grande importanza nell’ambito delle applicazioni biomedicali, ciò è dovuto principalmente alla loro attitudine nell’adempiere funzioni di stimolazione, monitoraggio su organi interni e di comunicazione di segnali vitali al mondo esterno. La comunità scientifica, in particolare, concentra la sua attenzione sulle tecniche di alimentazione di tali dispositivi. Le batterie al litio hanno rappresentato, fino a qualche tempo fa, la sorgente di alimentazione primaria. Il bisogno crescente di minimizzare le dimensioni di questi dispositivi e migliorare la qualità di vita del paziente (evitare successive operazioni chirurgiche, rischi e infezioni a causa dei cavi percutanei), ha spinto nella ricerca di nuove soluzioni. Una di queste è rappresentata dalla Wireless Power Transfer (WPT). In questo lavoro di tesi, è stato proposto un sistema di alimentazione wireless transcutaneo. Il sistema sfrutta il principio dell’accoppiamento induttivo risonante, che consiste nella trasmissione di energia in campo vicino tra due risuonatori magneticamente accoppiati. Al fine di acquisire la massima efficienza, sono state effettuate operazioni di ottimizzazione geometrica sul trasmettitore e di adattamento sul modello circuitale. I software CST e LTspice hanno reso possibile le simulazioni sul sistema dal punto di vista elettromagnetico e circuitale. Gli sviluppi futuri prevedono di convalidare i risultati ottenuti realizzando prove “in vitro”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nell'ambito dello sviluppo software, la concorrenza è sempre stata vista come la strada del futuro. Tuttavia, questa è stata spesso ignorata a causa del continuo sviluppo dell'hardware che ha permesso agli sviluppatori di continuare a scrivere software sequenziale senza doversi preoccupare delle performance. In un'era in cui le nuove architetture hardware presentano processori multi-core, tutto questo non è più possibile. L'obiettivo di questa tesi è stato quello di considerare il Modello ad Attori come valida alternativa allo sviluppo di applicazioni in ambito mobile e quindi di progettare, sviluppare e distribuire un nuovo framework sulla base di tale modello. Il lavoro parte quindi da una panoramica di Swift, il nuovo linguaggio di programmazione presentato da Apple al WWDC 2014, in cui vengono analizzati nel dettaglio i meccanismi che abilitano alla concorrenza. Successivamente viene descritto il modello ad attori in termini di: attori, proprietà, comunicazione e sincronizzazione. Segue poi un'analisi delle principali implementazioni di questo modello, tra cui: Scala, Erlang ed Akka; quest'ultimo rappresenta la base su cui è stato ispirato il lavoro di progettazione e sviluppo del framework Actor Kit. Il quarto capitolo descrive tutti i concetti, le idee e i principi su cui il framework Actor Kit è stato progettato e sviluppato. Infine, l'ultimo capitolo presenta l'utilizzo del framework in due casi comuni della programmazione mobile: 1) Acquisizione dati da Web API e visualizzazione sull'interfaccia utente. 2) Acquisizione dati dai sensori del dispositivo. In conclusione Actor Kit abilita la progettazione e lo sviluppo di applicazioni secondo un approccio del tutto nuovo nell'ambito mobile. Un possibile sviluppo futuro potrebbe essere l'estensione del framework con attori che mappino i framework standard di Apple; proprio per questo sarà reso pubblico con la speranza che altri sviluppatori possano evolverlo e renderlo ancora più completo e performante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uno dei principali settori di studio nell’ambito della visione artificiale riguarda lo sviluppo e la continua ricerca di tecniche e metodologie atte alla ricostruzione di ambienti 3D. Una di queste è il Kinect Fusion, la quale utilizza il dispositivo Kinect per catturare ed elaborare informazioni provenienti da mappe di profondità relative a una particolare scena, per creare un modello 3D dell’ambiente individuato dal sensore. Il funzionamento generale del sistema “Kinect Fusion” consiste nella ricostruzione di superfici dense attraverso l’integrazione delle informazioni di profondità dei vari frame all’interno di un cubo virtuale, che a sua volta viene partizionato in piccoli volumi denominati voxel, e che rappresenta il volume della scena che si intende ricostruire. Per ognuno di tali voxel viene memorizzata la distanza (TSDF) rispetto alla superficie più vicina. Durante lo svolgimento di questo lavoro di tesi ci si è concentrati innanzitutto nell’analisi dell’algoritmo Voxel Hashing, una tecnica che mira a rendere l'algoritmo Kinect Fusion scalabile, attraverso una migliore gestione della struttura dati dei voxel allocando questi ultimi all'interno di una tabella di hash solo se strettamente necessario (TSDF inferiore a una soglia). In una prima fase del progetto si è quindi studiato in dettaglio il funzionamento di suddetta tecnica, fino a giungere alla fase della sua implementazione all’interno di un framework di ricostruzione 3D, basato su Kinect Fusion; si è quindi reso il sistema realizzato più robusto tramite l’applicazione di diverse migliorie. In una fase successiva sono stati effettuati test quantitativi e qualitativi per valutarne l'efficienza e la robustezza. Nella parte finale del progetto sono stati delineati i possibili sviluppi di future applicazioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi cinque anni lo sviluppo di applicazioni mobile ha visto un grandissimo incremento dovuto pricipalmente all’esplosione della diffusione di smartphone; questo fenomeno ha reso disponibile agli analisti una enorme quantità di dati sulle abitudini degli utenti. L’approccio centralizzato nella distribuzione delle applicazioni da parte dei grandi provider quali Apple, Google e Microsoft ha permesso a migliaia di sviluppatori di tutto il mondo di raggiungere con i loro prodotti gli utenti finali e diffondere l’utilizzo di applicativi installabili; le app infatti sono diventate in poco tempo fondamentali nella vita di tutti i giorni e in alcuni casi hanno sostituito funzioni primarie del telefono cellulare. Obiettivo principale di questo studio sarà inferire pattern comportamentali dall’analisi di una grossa mole di dati riguardanti l’utilizzo dello smartphone e delle app installabili da parte di un gruppo di utenti. Ipotizzando di avere a disposizione tutte le azioni che un determinato bacino di utenza effettua nella selezione delle applicazioni di loro interesse quando accedono al marketplace (luogo digitale da cui è possibile scaricare nuove applicazioni ed installarle) è possibile stimare, ovviamente con un certo margine di errore, dati sensibili dell’utente quali: Sesso, Età, Interessi e così via analizzandoli in relazione ad un modello costruito su dati di un campione di utenti ben noto. Costruiremo così un modello utilizzando dati di utenti ben noti di cui conosciamo i dettagli sensibili e poi, tramite avanzate tecniche di regressione e classificazione saremo in grado di definire se esiste o meno una correlazione tra le azioni effettuate su uno Smartphone e il profilo dell’utente. La seconda parte della tesi sarà incentrata sull'analisi di sistemi di raccomandazioni attualmente operativi e ci concentreremo sullo studio di possibili sviluppi sviluppi futuri di questi sistemi partendo dai risultati sperimentali ottenuti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La validità della legge di gravitazione di Newton, o ISL (dall'inglese inverse square law) è stata ampiamente dimostrata dalle osservazioni astronomiche nel sistema solare (raggio d'azione di circa 10^{7}- 10^{9} km). Gli esperimenti effettuati su scale geologiche (raggio d'azione tra cm e km), eredi dell'esperimento di Cavendish, sono stati capaci di fornire un valore sperimentale della costante G della ISL affetto però da un'incertezza consistente (la precisione con cui si conosce G è dell'ordine di grandezza di 10^{-4}). L'interesse nella determinazione di un valore più preciso della costante G è aumentato negli ultimi decenni, supportato dalla necessità di mettere alla prova nuove teorie di gravitazione non Newtoniane emergenti, e da un avanzamento tecnologico negli apparati di misura, che sono ora in grado di rilevare l'interazione gravitazionale anche su distanze molto brevi (al di sotto del mm). In questo elaborato vengono brevemente presentate alcune delle teorie avanzate negli ultimi decenni che hanno reso urgente la riduzione dell'incertezza sulla misura di G, elencando successivamente alcuni importanti esperimenti condotti per la determinazione di un valore di G ripercorrendone brevemente i metodi sperimentali seguiti. Tra gli esperimenti presentati, sono infine analizzati nel dettaglio due esperimenti significativi: La misura della costante gravitazionale effettuata a corto raggio con l'utilizzo di atomi freddi nell'ambito dell'esperimento MAGIA a Firenze, e l'osservazione della presunta variazione di G su scale temporali relativamente lunghe, effettuata mediante l'osservazione (della durata di 21 anni)della pulsar binaria PSR J1713+0747.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’oggetto dell’elaborato è la proposta di traduzione della prefazione e di alcuni aneddoti della raccolta Hitǎr Petǎr dell’autore bulgaro Veličko Vǎlčev. Hitar Petar è un personaggio del folklore bulgaro molto popolare e i suoi aneddoti sono ambientati nel territorio dell’attuale Bulgaria durante l’occupazione ottomana. Con i suoi scherzi e i suoi inganni, diretti soprattutto agli esponenti del potere politico e spirituale della sua epoca, Hitar Petar sfida e sovverte l’ordine sociale vigente e le sue gesta lo rendono un simbolo dell’identità bulgara contro l’oppressione straniera e non solo. L’elaborato è strutturato in tre capitoli. Nel primo si presentano l’opera di Veličko Vǎlčev, il protagonista Hitar Petar, con un focus sulle caratteristiche che lo hanno reso un trickster di grande fama e sul genere letterario degli aneddoti di cui è protagonista. Nel secondo capitolo si introducono i testi selezionati e si presenta la proposta di traduzione. Infine, nel terzo capitolo, si descrive il percorso traduttivo a partire dall’approccio e dalle risorse utilizzate, si approfondiscono le scelte di resa dei nomi parlanti, le peculiarità stilistiche dei testi selezionati e la risoluzione di alcuni problemi traduttivi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’internazionalizzazione dei contesti industriali e l’aumento della competizione sopravvenuti nel mondo contemporaneo hanno reso necessari diversi mutamenti nelle attività produttive e legate ai servizi, dalla diversificazione dei prodotti, alla riduzione dei lead time, alla razionalizzazione dei costi a tutti i livelli della supply chain, non solo relativamente alle materie prime e alla diminuzione dei prezzi di vendita, ma anche di tutti i costi indiretti, che assumono un peso importante. La rapidità nella sostituzione dei prodotti e la necessità di contenere al massimo i tempi di risposta spingono sempre più le aziende a rivedere la propria struttura in modo da eliminare gli sprechi. Le imprese operano in un ambiente molto complesso, di conseguenza si rende necessario il coinvolgimento non solo delle funzioni interne ad un’azienda, ma anche di quelle esterne, nell’ottimizzazione delle attività che producono valore e di quelle necessarie che non intervengono direttamente. Tra tutte queste attività si cerca, in questo elaborato, di porre un focus su quelle legate alla gestione delle scorte all’interno della supply chain e all’integrazione dei fornitori nella rete logistica aziendale. Verranno ripresi i concetti fondamentali della teoria di gestione delle scorte, e sarà esposto il percorso intrapreso dall’azienda Carpigiani Group, leader mondiale nella produzione e commercializzazione di macchine per la produzione di gelato artigianale ed “espresso”, di integrazione dei fornitori all’interno della catena di approvvigionamento, attraverso un sistema kanban di fornitura e politiche di approvvigionamento riconducibili al consignment stock, con il fine ultimo di ottimizzare i livelli di scorte a magazzino e di servire le linee produttive con efficacia ed efficienza.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nell’Ottobre 2015, a seguito di alcuni fenomeni di instabilità avvenuti in corrispondenza delle scarpate lato fiume in sponda sinistra del Po, nel tratto compreso tra Casalmaggiore (CR) e Dosolo (MN), l'Agenzia Interregionale per il fiume Po (AIPO) ha commissionato un' estesa campagna di indagini geognostiche. L'ampio database reso disponibile è stato utilizzato in questa tesi di laurea con l'obiettivo di sviluppare, in collaborazione con i tecnici AIPO, una valida procedura per analizzare i dissesti delle scarpate lato fiume in questo tratto del Po e per identificare gli eventuali interventi di messa in sicurezza più idonei. Lo studio proposto si prefigge i seguenti obiettivi: • La caratterizzazione geotecnica dei terreni costituenti le strutture arginali in esame ed il relativo substrato; • La definizione del modello geotecnico del sistema arginale; • La valutazione della stabilità dell'argine; • La individuazione degli interventi di messa in sicurezza delle scarpate. Attraverso l’elaborazione delle prove CPTU è stato possibile determinare la stratigrafia e i parametri geotecnici delle diverse unità stratigrafiche presenti nelle sezioni considerate significative. Sono state quindi effettuate una serie di analisi con il metodo all'equilibrio limite, verificando la stabilità delle scarpate in condizioni di magra ordinaria e in condizioni di rapido svaso. Tenendo conto che la maggior parte dei tratti analizzati aveva già manifestato segni di instabilità o comunque indicava condizioni prossime al limite dell’equilibrio, si è proceduto in "back analysis" alla individuazione dei parametri di resistenza al taglio operativi, tenendo conto della variabilità degli stessi nell'ambito di una stessa unità stratigrafica. Infine tenendo presente i criteri di progetto degli interventi normalmente adottati sulle sponde, è stato possibile procedere alla modellazione di interventi mirati ad aumentare il fattore di sicurezza, analizzandone i relativi vantaggi e svantaggi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi tratta nello specifico lo studio di un impianto micro-ORC, capace di sfruttare acqua alla temperatura di circa 70-90°C come sorgente termica. Questo sistema presenta una potenza dichiarata dal costruttore pari a 3kW e un rendimento del 9%. In primo luogo, si descrivono le caratteristiche principali dei fluidi organici, in particolare quelle del freon R134a, impiegato nel banco prova. Vengono illustrati dettagliatamente l’impianto e la sensoristica utilizzata per le misurazioni delle varie grandezze fisiche. Tramite esse, con l’utilizzo di un programma di acquisizione dati appositamente relizzato in ambiente LabVIEW, è stato possibile calcolare in tempo reale tutti i parametri di funzionamento, necessari per la caratterizzazione del sistema. Per una veloce ed efficiente elaborazione dei dati registrati durante le prove in laboratorio, è stato realizzato un programma in linguaggio VBA. L’utilizzo di questo codice ha permesso, in primo luogo, di individuare e correggere eventuali errori di calcolo e acquisizione presenti in ambiente LabVIEW e, in secondo luogo, si è reso indispensabile per comprendere il funzionamento dell’impianto nelle varie fasi, come accensione, spegnimento e produzione di potenza. Sono state inoltre identificate le modalità di risposta del sistema al variare dei comandi impostabili dall’utente, quali il numero di giri della pompa e la variazione della temperatura della sorgente calda. Si sono poi osservate le risposte del sistema al variare delle condizioni esterne, come ad esempio la temperatura dell’acqua di condensazione. Una specifica prova è stata analizzata in questo elaborato. Durante tale prova il sistema ha lavorato in forte off-design, erogando una potenza elettrica pari a 255 W, raggiungendo un basso valore del rendimento (pari a 1.8%). L’analisi dei dati ha portato ad identificare nuovi limiti di funzionamento, legati ad esempio alla quantità di fluido interna al sistema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le metodologie per la raccolta delle idee e delle opinioni si sono evolute a pari passo con il progresso tecnologico: dalla semplice comunicazione orale si è passati alla diffusione cartacea, fino a che l'introduzione e l'evoluzione di internet non hanno portato alla digitalizzazione e informatizzazione del processo. Tale progresso ha reso possibile l'abbattimento di ogni barriera fisica: se in precedenza la diffusione di un sondaggio era limitata dall'effettiva possibilità di distribuzione del sondaggio stesso, lo sviluppo della rete globale ha esteso tale possibilità (virtualmente) a tutto il mondo. Nonostante sia un miglioramento non indifferente, è importante notare come la valorizzazione della diffusione di un sondaggio abbia inevitabilmente portato a trascurarne le proprietà e i vantaggi intrinsechi legati alla sua diffusione prettamente locale. Ad esempio, un sondaggio che mira a valutare la soddisfazione degli utenti riguardo alla recente introduzione di una nuova linea di laptop ottiene un guadagno enorme dall'informatizzazione, e dunque delocalizzazione, del processo di raccolta dati; dall'altro lato, un sondaggio che ha come scopo la valutazione dell'impatto sui cittadini di un recente rinnovamento degli impianti di illuminazione stradale ha un guadagno pressoché nullo. L'idea alla base di QR-VEY è la ricerca di un ponte tra le metodologie classiche e quelle moderne, in modo da poter sfruttare le proprietà di entrambe le soluzioni. Tale ponte è stato identificato nella tecnologia del QR-Code: è possibile utilizzare un generico supporto che presenti proprietà di localizzazione, come un foglio cartaceo, ma anche un proiettore di una conferenza, come base per la visualizzazione di tale codice, ed associare alla scansione dello stesso funzionalità automatizzate di raccolta di dati e opinioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La diffusione di smartphone e dispostivi mobili a cui si è assistito nell’ultima decade ha portato con sé lo sviluppo di nuovi sistemi e tecnologie basate sulla localizzazione. Questi sistemi vengono chiamati Location Based Systems (LBS) ed il loro successo è stato reso possibile dai sensori come GPS, antenna WiFi e accelerometro che hanno permesso agli sviluppatori di creare contenuti e servizi basati sulla posizione dell’utente. Una delle tecnologie su cui si basano i LBS è chiamata Geofencing e consiste nella creazione di aree virtuali (dette geofence) per delimitare luoghi di interesse (Point of Interests) e notificare l’utente quando entra, esce o si trova nelle vicinanze di una delle aree delimitate. Questa caratteristica viene utilizzata soprattutto per realizzare applicazioni che ricordano all’utente di svolgere delle azioni, per esempio un’app di promemoria che ricorda all’utente di comprare il latte quando si trova vicino ad un supermercato. Dal punto di vista economico, uno degli utilizzi piu` promettenti `e il co- siddetto Context Aware Advertising: i possessori di dispositivi mobili che si trovano a camminare nelle vicinanze di un negozio o un centro commer- ciale possono essere considerati possibili clienti e ricevere delle notifiche con pubblicit`a o questionari. Nel seguente lavoro verrà analizzato nel dettaglio cos’è il Geofencing, le sue applicazioni e le tecnologie sulla quale si basa. Verranno presi in considerazione alcuni problemi relativi all’utilizzo delle tecnologie di posizionamento, con particolare attenzione ai consumi di batteria. Verrà inoltre descritta la progettazione e l’implementazione di una piattaforma che permette ai possessori di attività commerciali di creare e gestire dei POI nonché di monitorare gli spostamenti dei possibili clienti. Dopo aver installato l’applicazione mobile sul proprio smartphone, i clienti potranno ricevere notifiche una volta oltrepassati i confini di un geofence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'obiettivo di questo lavoro è quello di analizzare la potenza emessa da una carica elettrica accelerata. Saranno studiati due casi speciali: accelerazione lineare e accelerazione circolare. Queste sono le configurazioni più frequenti e semplici da realizzare. Il primo passo consiste nel trovare un'espressione per il campo elettrico e il campo magnetico generati dalla carica. Questo sarà reso possibile dallo studio della distribuzione di carica di una sorgente puntiforme e dei potenziali che la descrivono. Nel passo successivo verrà calcolato il vettore di Poynting per una tale carica. Useremo questo risultato per trovare la potenza elettromagnetica irradiata totale integrando su tutte le direzioni di emissione. Nell'ultimo capitolo, infine, faremo uso di tutto ciò che è stato precedentemente trovato per studiare la potenza emessa da cariche negli acceleratori.