59 resultados para binario


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pós-graduação em Física - IFT

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel periodo storico compreso tra la seconda metà dell’Ottocento ed il primo ventennio del Novecento, un’ondata di innovazioni tecnologiche e scientifiche, unitamente all’espansione dell’industria siderurgica e la conseguente diffusione del ferro come materiale da costruzione, portarono alla realizzazione di strutture metalliche grandiose. Ciò fu reso possibile grazie ad una fervida attività di ricerca che permise la risoluzione di problematiche tecniche di assoluto rilievo, come la progettazione di grandi coperture o di ponti destinati al traffico ferroviario in grado di coprire luci sempre maggiori. In questo contesto si sviluppò il sistema della chiodatura come metodo di unione per il collegamento rigido e permanente dei vari elementi che compongono la struttura portante metallica. Ad oggi il sistema della chiodatura è stato quasi completamente sostituito dalla bullonatura di acciaio ad alta resistenza e dalla saldatura, che garantendo gli stessi standard di affidabilità e sicurezza, offrono vantaggi in termini economici e di rapidità esecutiva. Tuttavia lo studio delle unioni chiodate continua a rivestire notevole importanza in tutti quei casi in cui il progettista debba occuparsi di restauro, manutenzione o adeguamento di strutture esistenti che in molti casi continuano ad assolvere le funzioni per le quali erano state progettate. La valutazione delle strutture esistenti, in particolare i ponti, ha assunto un’importanza sempre crescente. L’incremento della mobilità e del traffico sulle infrastrutture di trasporto ha portato ad un incremento contemporaneo di carichi e velocità sui ponti. In particolare nelle ferrovie, i ponti rappresentano una parte strategica della rete ferroviaria e in molti casi, essi hanno già raggiunto i loro limiti di capacità di traffico, tanto è vero che l’età media del sessanta percento dei ponti metallici ferroviari è di un centinaio di anni. Pertanto i carichi di servizio, i cicli di sforzo accumulati a causa dei carichi da traffico e il conseguente invecchiamento delle strutture esistenti, inducono la necessità della valutazione della loro rimanente vita a fatica. In questo contesto, la valutazione delle condizioni del ponte e le conseguenti operazioni di manutenzione o sostituzione diventano indispensabili. Negli ultimi decenni sono state effettuate numerose iniziative di ricerca riguardo il comportamento a fatica dei ponti ferroviari chiodati, poiché le passate esperienze hanno mostrato che tali connessioni sono suscettibili di rotture per fatica. Da uno studio dell’ASCE Committee on Fatigue and Fracture Reliability è emerso che l’ottanta, novanta percento delle crisi nelle strutture metalliche è da relazionarsi ai fenomeni di fatica e frattura. Il danno per fatica riportato dai ponti chiodati è stato osservato principalmente sulle unioni tra elementi principali ed è causato dagli sforzi secondari, che si possono sviluppare in diverse parti delle connessioni. In realtà riguardo la valutazione della fatica sui ponti metallici chiodati, si è scoperto che giocano un ruolo importante molti fattori, anzitutto i ponti ferroviari sono soggetti a grandi variazioni delle tensioni indotte da carichi permanenti e accidentali, così come imperfezioni geometriche e inclinazioni o deviazioni di elementi strutturali comportano sforzi secondari che solitamente non vengono considerati nella valutazione del fenomeno della fatica. Vibrazioni, forze orizzontali trasversali, vincoli interni, difetti localizzati o diffusi come danni per la corrosione, rappresentano cause che concorrono al danneggiamento per fatica della struttura. Per questo motivo si studiano dei modelli agli elementi finiti (FE) che riguardino i particolari delle connessioni e che devono poi essere inseriti all’interno di un modello globale del ponte. L’identificazione degli elementi critici a fatica viene infatti solitamente svolta empiricamente, quindi è necessario che i modelli numerici di cui si dispone per analizzare la struttura nei particolari delle connessioni, così come nella sua totalità, siano il più corrispondenti possibile alla situazione reale. Ciò che ci si propone di sviluppare in questa tesi è un procedimento che consenta di affinare i modelli numerici in modo da ottenere un comportamento dinamico analogo a quello del sistema fisico reale. Si è presa in esame la seguente struttura, un ponte metallico ferroviario a binario unico sulla linea Bologna – Padova, che attraversa il fiume Po tra le località di Pontelagoscuro ed Occhiobello in provincia di Ferrara. Questo ponte fu realizzato intorno agli anni che vanno dal 1945 al 1949 e tra il 2002 e il 2006 ha subito interventi di innalzamento, ampliamento ed adeguamento nel contesto delle operazioni di potenziamento della linea ferroviaria, che hanno portato tra l’altro all’affiancamento di un nuovo ponte, anch’esso a singolo binario, per i convogli diretti nella direzione opposta. Le travate metalliche del ponte ferroviario sono costituite da travi principali a traliccio a gabbia chiusa, con uno schema statico di travi semplicemente appoggiate; tutte le aste delle travi reticolari sono formate da profilati metallici in composizione chiodata. In particolare si è rivolta l’attenzione verso una delle travate centrali, della quale si intende affrontare un’analisi numerica con caratterizzazione dinamica del modello agli Elementi Finiti (FEM), in modo da conoscerne lo specifico comportamento strutturale. Ad oggi infatti l’analisi strutturale si basa prevalentemente sulla previsione del comportamento delle strutture tramite modelli matematici basati su procedimenti risolutivi generali, primo fra tutti il Metodo agli Elementi Finiti. Tuttavia i risultati derivanti dal modello numerico possono discostarsi dal reale comportamento della struttura, proprio a causa delle ipotesi poste alla base della modellazione. Difficilmente infatti si ha la possibilità di riscontrare se le ipotesi assunte nel calcolo della struttura corrispondano effettivamente alla situazione reale, tanto più se come nella struttura in esame si tratta di una costruzione datata e della quale si hanno poche informazioni circa i dettagli relativi alla costruzione, considerando inoltre che, come già anticipato, sforzi secondari e altri fattori vengono trascurati nella valutazione del fenomeno della fatica. Nel seguito si prenderanno in esame le ipotesi su masse strutturali, rigidezze dei vincoli e momento d’inerzia delle aste di parete, grandezze che caratterizzano in particolare il comportamento dinamico della struttura; per questo sarebbe ancora più difficilmente verificabile se tali ipotesi corrispondano effettivamente alla costruzione reale. Da queste problematiche nasce l’esigenza di affinare il modello numerico agli Elementi Finiti, identificando a posteriori quei parametri meccanici ritenuti significativi per il comportamento dinamico della struttura in esame. In specifico si andrà a porre il problema di identificazione come un problema di ottimizzazione, dove i valori dei parametri meccanici vengono valutati in modo che le caratteristiche dinamiche del modello, siano il più simili possibile ai risultati ottenuti da elaborazioni sperimentali sulla struttura reale. La funzione costo è definita come la distanza tra frequenze proprie e deformate modali ottenute dalla struttura reale e dal modello matematico; questa funzione può presentare più minimi locali, ma la soluzione esatta del problema è rappresentata solo dal minimo globale. Quindi il successo del processo di ottimizzazione dipende proprio dalla definizione della funzione costo e dalla capacità dell’algoritmo di trovare il minimo globale. Per questo motivo è stato preso in considerazione per la risoluzione del problema, l’algoritmo di tipo evolutivo DE (Differential Evolution Algorithm), perché gli algoritmi genetici ed evolutivi vengono segnalati per robustezza ed efficienza, tra i metodi di ricerca globale caratterizzati dall’obiettivo di evitare la convergenza in minimi locali della funzione costo. Obiettivo della tesi infatti è l’utilizzo dell’algoritmo DE modificato con approssimazione quadratica (DE-Q), per affinare il modello numerico e quindi ottenere l’identificazione dei parametri meccanici che influenzano il comportamento dinamico di una struttura reale, il ponte ferroviario metallico a Pontelagoscuro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi ha come oggetto lo studio dei legami culturali posti in essere tra la Russia e l’Italia nel Settecento effettuato a partire dall’analisi del teatro di Arkhangelskoe (nei pressi di Mosca), ideato da Pietro Gonzaga. Ciò ha consentito di inquadrare l’atmosfera culturale del periodo neoclassico a partire da un’angolazione insolita: il monumento in questione, a dispetto della scarsa considerazione di cui gode all’interno degli studi di storia dell’arte, racchiude diverse ed interessanti problematiche artistiche. Queste ultime sono state tenute in debito conto nel processo dell’organizzazione della struttura del lavoro in relazione ai differenti livelli di analisi emersi in riferimento alla tematica scelta. Ogni capitolo rappresenta un punto di partenza che va utilizzato al fine di approfondire problematiche relative all’arte ed al teatro nei due Paesi, il tutto reso possibile grazie all’applicazione di un originale orientamento analitico. All’interno della tesi vengono infatti adoperati approcci e tecniche metodologiche che vanno dalla storia dell’arte all’analisi diretta dei monumenti, dall’interpretazione iconografica alla semiotica, per arrivare agli studi sociologici. Ciò alla fine ha consentito di rielaborare il materiale già noto e ampiamente studiato in modo convincente ed efficace, grazie al ragionamento sintetico adottato e alla possibilità di costruire paralleli letterari e artistici, frutto delle ricerche svolte nei diversi contesti. Il punto focale della tesi è rappresentato dalla figura di Pietro Gonzaga. Tra i decoratori e gli scenografi italiani attivi presso la corte russa tra il Settecento e l’Ottocento, questi è stato senza dubbio la figura più rilevante ed affascinante, in grado di lasciare una ricca eredità culturale e materiale nell’ambito dell’arte scenografica russa. Dimenticata per lungo tempo, l’opera di Pietro Gonzaga è attualmente oggetto di una certa riconsiderazione critica, suscitando curiosità e interesse da più parti. Guidando la ricerca su di un duplice binario, sia artistico che interculturale, si è quindi cercato di trovare alcune risonanze tra l’arte ed il pensiero di Gonzaga ed altre figure di rilievo non solo del suo secolo ma anche del Novecento, periodo in cui la cultura scenografica russa è riuscita ad affrancarsi dai dettami impartiti dalla lezione settecentesca, seguendo nuove ed originali strade espressive. In questo contesto spicca, ad esempio, la figura di Vsevolod Meyerchold, regista teatrale (uno dei protagonisti dell’ultimo capitolo della tesi) che ha instaurato un legame del tutto originale con i principi della visione scenica comunicati da Pietro Gonzaga. Lo sviluppo dell’argomento scelto ha richiesto di assumere una certa responsabilità critica, basandosi sulla personale sicurezza metodologica ed esperienza multidisciplinare al fine di tener conto dall’architettura, della teoria e della pratica teatrale – dalla conoscenza delle fonti fino agli studi del repertorio teatrale, delle specifiche artistiche locali, del contesto sociale dei due paesi a cavallo tra il ‘700 e l’‘800. Le problematiche toccate nella tesi (tra le quali si ricordano il ruolo specifico rivestito dal committente, le caratteristiche proprie della villa neoclassica russa, il fenomeno di ‘spettacoli muti’, la “teatralità” presente nel comportamento dei russi nell’epoca dei Lumi, la risonanza delle teorie italiane all’interno del arte russa) sono di chiara attualità per quanto concerne le ricerche relative al dialogo storico-artistico tra i due Paesi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Non può dirsi ancora raggiunta una completa, appagante e condivisa definizione di criminalità organizzata: eppure tale concetto viene ampiamente utilizzato, entrando nel linguaggio comune e –soprattutto- in quello normativo e giurisprudenziale. Attraverso il susseguirsi di numerosi interventi legislativi, abbiamo assistito alla progressiva elaborazione del c.d. doppio binario: di una normativa, cioè, ad hoc per i reati di criminalità organizzata, caratterizzata da un rilevante arretramento delle ordinarie soglie di garanzia previste dall’ordinamento giuridico. Alla luce di prioritarie esigenze di legalità si giustifica l’impellente necessità di giungere alla elaborazione di una precisa definizione di criminalità organizzata. A tale fine, nel corso del presente lavoro, sono stati esaminati i principali approcci definitori individuati a livello socio-criminologico, giurisprudenziale ed in ambito normativo, con particolare attenzione al diritto penale e processual-penalistico; si è inoltre proceduto all’analisi delle principali definizioni riscontrabili a livello comunitario ed internazionale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Realizzazione di un banco prova per la valutazione di velocità di rotazione e trazione di un sistema binario composto da motore elettrico e elica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi di dottorato verte sull'individuazione di politiche industriali atte ad implementare il mercato dei prodotti a denominazione di origine. Inevitabilmente, l’analisi economica dei prodotti agroalimentari tipici di qualità implica anche l’approfondimento e l’individuazione, delle problematiche connesse con la creazione di un valore addizionale per il consumatore, rispetto a quello dei prodotti standardizzati. Questo approccio richiama l’attenzione, da una parte, sulle caratteristiche della domanda e sulla disponibilità del consumatore a riconoscere e apprezzare questo plus-valore, dall’altra sulle strategie che l’offerta può attivare per conseguire un premium price rispetto al prodotto standardizzato. Le certificazioni comunitarie Dop, Igp e Stg oltre che il marchio di prodotto biologico racchiudono, solitamente, tali dinamiche valoriali ma sono tutt’oggi poco conosciute dai consumatori. Diversi studi internazionali dimostrano, infatti, che la maggioranza dei cittadini comunitari ignorano il significato delle certificazioni di qualità. L’ipotesi di fondo di questo studio si basa sulla possibilità di fidelizzare questi marchi con i brand della grande distribuzione già affermati, come quello di Coop. Analizzare gli effetti dell’introduzione di prodotti private label a denominazione di origine nel mercato della grande distribuzione organizzata italiana ci permetterebbe di comprendere se questo segmento di mercato può aiutare il settore delle Dop/Igp. Questo studio ha cercato di verificare se il prodotto private label a denominazione di origine, riesca a sfruttare il doppio binario di fiducia rappresentato dal marchio comunitario unito a quello dell’impresa di distribuzione. Per comprendere la propensione del consumatore a spendere di più per questi prodotti, abbiamo utilizzato l’analisi dell’elasticità della domanda sul prezzo dei dati scanner fornitici da Coop Adriatica. Siamo riusciti a dimostrare tale positivo connubio confermato anche da una indagine demoscopica effettuata ad hoc sui consumatori.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Millisecond Pulsar (MSP) sono stelle di neutroni magnetizzate e rapidamente rotanti, prodotte da fenomeni di accrescimento di massa e momento angolare da parte di una stella compagna. Secondo lo scenario canonico di formazione, è atteso che la stella compagna sia una nana bianca di He, privata del suo inviluppo esterno. Tuttavia, in un numero crescente di casi, la compagna della MSP è stata identificata in una stella di piccola massa, non degenere, ancora soggetta a fenomeni di perdita di massa. Queste MSP vengono comunemente chiamate ''Black-Widow'' (BW) e sono l'oggetto di studio di questa tesi. In particolare, l'obiettivo di questo lavoro è l'identificazione della controparte ottica della PSR J1953+1846A nell'ammasso globulare M71. Essa è classificata come BW, data la piccola massa della compagna (~0.032 Msun) e il segnale radio eclissato per circa il 20% dell'orbita. Tramite l'uso di osservazioni ad alta risoluzione con il telescopio spaziale Hubble, abbiamo identificato, in una posizione compatibile con la MSP, un debole oggetto, la cui variabilità mostra una periodicità coerente con quella del sistema binario, noto dalla banda radio. La struttura della curva di luce è indicativa della presenza di fenomeni di irraggiamento della superficie stellare esposta all'emissione della MSP e dalla sua analisi abbiamo stimato alcuni parametri fisici della compagna, come la temperatura superficiale ed il fattore di riempimento del lobo di Roche. Dal confronto tra le curve di luce X ed ottica, abbiamo inoltre trovato evidenze a favore della presenza di shocks nelle regioni intrabinarie. Abbiamo quindi evidenziato l'estrema similarità di questo sistema con l'unica compagna di BW attualmente nota in un ammasso globulare: PSR J1518+0204C. Infine, abbiamo effettuato uno studio preliminare delle controparti ottiche delle sorgenti X dell'ammasso. Abbiamo così identificato due AGN che, insieme ad altre due galassie, hanno permesso la determinazione del moto proprio assoluto delle stelle dell'ammasso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro di tesi è focalizzato sull'utilizzo dei controlli non distruttivi (NDT) nell'ambito della manutenzione industriale, in particolare al controllo di un mega-coaster. Dopo una breve panoramica sulle tecniche di indagine più utilizzate, si prosegue nell'ambito specifico dei controlli eseguiti all'interno del parco divertimenti di Mirabilandia, sull'attrazione di punta, ovvero l'inverted-coaster "KATUN". In particolare viene descritto il controllo del tracciato dell'attrazione, ovvero del binario, mediante tecnica ad ultrasuoni. L'elaborato si conclude con un riassunto dei risultati sperimentali ottenuti ed alcune azioni correttive intraprese per il miglioramento dell'efficacia dei controlli stessi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A fronte di un notevole incremento di funzionalità e strutture, nell'ambiente Web si sono intrapresi numerosi percorsi volti alla creazione di progetti che vanno a supportare il sovraccarico riversato sul lavoro che i linguaggi e i software sono tenuti a svolgere. Ad oggi il Javascript è uno dei linguaggi maggiormente utilizzati in ambito Web, e si rivela spesso essenziale al corretto sviluppo di applicazioni particolarmente evolute. Questo linguaggio, come è noto, sposta l’elaborazione del codice sul lato client, quindi sarà il Browser a supportare il carico di lavoro. Inoltre, è proprio quest’ultimo ad essere incaricato della gestione delle risorse computazionali locali, necessarie a tutte le operazioni di interpretazione del codice presente nelle pagine Web. Il crescente numero di connessioni da dispositivi mobili e la complessità dei siti Web, aumentano il rischio di avvicinarsi ad un punto critico relativo alla velocità e alle prestazioni dei Browser, in questa direzione sono stati realizzati progetti come asm.js piuttosto che Typescript in grado di velocizzare o incrementare le funzionalità e le prestazioni del linguaggio Javascript. Webassembly vuole integrare i vantaggi proposti da questi linguaggi tramite una meccanica di conversione dei file in formato binario, il quale essendo molto più leggero e veloce, consente una elaborazione molto più performante da parte dei Browser. Questo documento espone una panoramica sulle funzionalità e la progettazione di questo linguaggio, analizzando elementi lessicali e relativi vantaggi rispetto alle tecnologie diffuse fino ad ora. Il quadro generale di questa tesi ci prepara all’apertura di un nuovo scenario molto più ampio e diverso, sostenuto da un approccio al Web strutturalmente innovativo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se puede leer en la cultura literaria argentina la polémica como elemento estructurador de muchos de sus aspectos. La polémica intelectual con Borges se reconfigura a partir de los años 80, cuando se deshace todo un universo binario para dibujar otro, múltiple y descentrado. En la obra de Tomás Eloy Martínez podemos leer el destino de la vocación polemista argentina: vacila entre tendencias opuestas en las décadas del 60 y 70, rescata lo borgeano en los ochenta para gestar, a través de la reflexión sobre la importancia del lector, nuevas estrategias narrativas en los 90. La reconfiguración de la cultura polémica en Tomás Eloy Martínez pasa por la conciencia del papel del lector en la construcción del sentido de la obra y por una redefinición de género de narrativa que incluye también al género de lector producido por los horizontes de expectativa del público lector. A partir de Santa Evita, Martínez incorporará a su obra aspectos de los géneros discursivos considerados masivos, como un medio de rescatar un público perdido por la intelectualidad inserida en los dos lados de diversos binarismos polémicos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se puede leer en la cultura literaria argentina la polémica como elemento estructurador de muchos de sus aspectos. La polémica intelectual con Borges se reconfigura a partir de los años 80, cuando se deshace todo un universo binario para dibujar otro, múltiple y descentrado. En la obra de Tomás Eloy Martínez podemos leer el destino de la vocación polemista argentina: vacila entre tendencias opuestas en las décadas del 60 y 70, rescata lo borgeano en los ochenta para gestar, a través de la reflexión sobre la importancia del lector, nuevas estrategias narrativas en los 90. La reconfiguración de la cultura polémica en Tomás Eloy Martínez pasa por la conciencia del papel del lector en la construcción del sentido de la obra y por una redefinición de género de narrativa que incluye también al género de lector producido por los horizontes de expectativa del público lector. A partir de Santa Evita, Martínez incorporará a su obra aspectos de los géneros discursivos considerados masivos, como un medio de rescatar un público perdido por la intelectualidad inserida en los dos lados de diversos binarismos polémicos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se puede leer en la cultura literaria argentina la polémica como elemento estructurador de muchos de sus aspectos. La polémica intelectual con Borges se reconfigura a partir de los años 80, cuando se deshace todo un universo binario para dibujar otro, múltiple y descentrado. En la obra de Tomás Eloy Martínez podemos leer el destino de la vocación polemista argentina: vacila entre tendencias opuestas en las décadas del 60 y 70, rescata lo borgeano en los ochenta para gestar, a través de la reflexión sobre la importancia del lector, nuevas estrategias narrativas en los 90. La reconfiguración de la cultura polémica en Tomás Eloy Martínez pasa por la conciencia del papel del lector en la construcción del sentido de la obra y por una redefinición de género de narrativa que incluye también al género de lector producido por los horizontes de expectativa del público lector. A partir de Santa Evita, Martínez incorporará a su obra aspectos de los géneros discursivos considerados masivos, como un medio de rescatar un público perdido por la intelectualidad inserida en los dos lados de diversos binarismos polémicos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El interés cada vez mayor por las redes de sensores inalámbricos pueden ser entendido simplemente pensando en lo que esencialmente son: un gran número de pequeños nodos sensores autoalimentados que recogen información o detectan eventos especiales y se comunican de manera inalámbrica, con el objetivo final de entregar sus datos procesados a una estación base. Los nodos sensores están densamente desplegados dentro del área de interés, se pueden desplegar al azar y tienen capacidad de cooperación. Por lo general, estos dispositivos son pequeños y de bajo costo, de modo que pueden ser producidos y desplegados en gran numero aunque sus recursos en términos de energía, memoria, velocidad de cálculo y ancho de banda están enormemente limitados. Detección, tratamiento y comunicación son tres elementos clave cuya combinación en un pequeño dispositivo permite lograr un gran número de aplicaciones. Las redes de sensores proporcionan oportunidades sin fin, pero al mismo tiempo plantean retos formidables, tales como lograr el máximo rendimiento de una energía que es escasa y por lo general un recurso no renovable. Sin embargo, los recientes avances en la integración a gran escala, integrado de hardware de computación, comunicaciones, y en general, la convergencia de la informática y las comunicaciones, están haciendo de esta tecnología emergente una realidad. Del mismo modo, los avances en la nanotecnología están empezando a hacer que todo gire entorno a las redes de pequeños sensores y actuadores distribuidos. Hay diferentes tipos de sensores tales como sensores de presión, acelerómetros, cámaras, sensores térmicos o un simple micrófono. Supervisan las condiciones presentes en diferentes lugares tales como la temperatura, humedad, el movimiento, la luminosidad, presión, composición del suelo, los niveles de ruido, la presencia o ausencia de ciertos tipos de objetos, los niveles de tensión mecánica sobre objetos adheridos y las características momentáneas tales como la velocidad , la dirección y el tamaño de un objeto, etc. Se comprobara el estado de las Redes Inalámbricas de Sensores y se revisaran los protocolos más famosos. Así mismo, se examinara la identificación por radiofrecuencia (RFID) ya que se está convirtiendo en algo actual y su presencia importante. La RFID tiene un papel crucial que desempeñar en el futuro en el mundo de los negocios y los individuos por igual. El impacto mundial que ha tenido la identificación sin cables está ejerciendo fuertes presiones en la tecnología RFID, los servicios de investigación y desarrollo, desarrollo de normas, el cumplimiento de la seguridad y la privacidad y muchos más. Su potencial económico se ha demostrado en algunos países mientras que otros están simplemente en etapas de planificación o en etapas piloto, pero aun tiene que afianzarse o desarrollarse a través de la modernización de los modelos de negocio y aplicaciones para poder tener un mayor impacto en la sociedad. Las posibles aplicaciones de redes de sensores son de interés para la mayoría de campos. La monitorización ambiental, la guerra, la educación infantil, la vigilancia, la micro-cirugía y la agricultura son solo unos pocos ejemplos de los muchísimos campos en los que tienen cabida las redes mencionadas anteriormente. Estados Unidos de América es probablemente el país que más ha investigado en esta área por lo que veremos muchas soluciones propuestas provenientes de ese país. Universidades como Berkeley, UCLA (Universidad de California, Los Ángeles) Harvard y empresas como Intel lideran dichas investigaciones. Pero no solo EE.UU. usa e investiga las redes de sensores inalámbricos. La Universidad de Southampton, por ejemplo, está desarrollando una tecnología para monitorear el comportamiento de los glaciares mediante redes de sensores que contribuyen a la investigación fundamental en glaciología y de las redes de sensores inalámbricos. Así mismo, Coalesenses GmbH (Alemania) y Zurich ETH están trabajando en diversas aplicaciones para redes de sensores inalámbricos en numerosas áreas. Una solución española será la elegida para ser examinada más a fondo por ser innovadora, adaptable y polivalente. Este estudio del sensor se ha centrado principalmente en aplicaciones de tráfico, pero no se puede olvidar la lista de más de 50 aplicaciones diferentes que ha sido publicada por la firma creadora de este sensor específico. En la actualidad hay muchas tecnologías de vigilancia de vehículos, incluidos los sensores de bucle, cámaras de video, sensores de imagen, sensores infrarrojos, radares de microondas, GPS, etc. El rendimiento es aceptable, pero no suficiente, debido a su limitada cobertura y caros costos de implementación y mantenimiento, especialmente este ultimo. Tienen defectos tales como: línea de visión, baja exactitud, dependen mucho del ambiente y del clima, no se puede realizar trabajos de mantenimiento sin interrumpir las mediciones, la noche puede condicionar muchos de ellos, tienen altos costos de instalación y mantenimiento, etc. Por consiguiente, en las aplicaciones reales de circulación, los datos recibidos son insuficientes o malos en términos de tiempo real debido al escaso número de detectores y su costo. Con el aumento de vehículos en las redes viales urbanas las tecnologías de detección de vehículos se enfrentan a nuevas exigencias. Las redes de sensores inalámbricos son actualmente una de las tecnologías más avanzadas y una revolución en la detección de información remota y en las aplicaciones de recogida. Las perspectivas de aplicación en el sistema inteligente de transporte son muy amplias. Con este fin se ha desarrollado un programa de localización de objetivos y recuento utilizando una red de sensores binarios. Esto permite que el sensor necesite mucha menos energía durante la transmisión de información y que los dispositivos sean más independientes con el fin de tener un mejor control de tráfico. La aplicación se centra en la eficacia de la colaboración de los sensores en el seguimiento más que en los protocolos de comunicación utilizados por los nodos sensores. Las operaciones de salida y retorno en las vacaciones son un buen ejemplo de por qué es necesario llevar la cuenta de los coches en las carreteras. Para ello se ha desarrollado una simulación en Matlab con el objetivo localizar objetivos y contarlos con una red de sensores binarios. Dicho programa se podría implementar en el sensor que Libelium, la empresa creadora del sensor que se examinara concienzudamente, ha desarrollado. Esto permitiría que el aparato necesitase mucha menos energía durante la transmisión de información y los dispositivos sean más independientes. Los prometedores resultados obtenidos indican que los sensores de proximidad binarios pueden formar la base de una arquitectura robusta para la vigilancia de áreas amplias y para el seguimiento de objetivos. Cuando el movimiento de dichos objetivos es suficientemente suave, no tiene cambios bruscos de trayectoria, el algoritmo ClusterTrack proporciona un rendimiento excelente en términos de identificación y seguimiento de trayectorias los objetos designados como blancos. Este algoritmo podría, por supuesto, ser utilizado para numerosas aplicaciones y se podría seguir esta línea de trabajo para futuras investigaciones. No es sorprendente que las redes de sensores de binarios de proximidad hayan atraído mucha atención últimamente ya que, a pesar de la información mínima de un sensor de proximidad binario proporciona, las redes de este tipo pueden realizar un seguimiento de todo tipo de objetivos con la precisión suficiente. Abstract The increasing interest in wireless sensor networks can be promptly understood simply by thinking about what they essentially are: a large number of small sensing self-powered nodes which gather information or detect special events and communicate in a wireless fashion, with the end goal of handing their processed data to a base station. The sensor nodes are densely deployed inside the phenomenon, they deploy random and have cooperative capabilities. Usually these devices are small and inexpensive, so that they can be produced and deployed in large numbers, and so their resources in terms of energy, memory, computational speed and bandwidth are severely constrained. Sensing, processing and communication are three key elements whose combination in one tiny device gives rise to a vast number of applications. Sensor networks provide endless opportunities, but at the same time pose formidable challenges, such as the fact that energy is a scarce and usually non-renewable resource. However, recent advances in low power Very Large Scale Integration, embedded computing, communication hardware, and in general, the convergence of computing and communications, are making this emerging technology a reality. Likewise, advances in nanotechnology and Micro Electro-Mechanical Systems are pushing toward networks of tiny distributed sensors and actuators. There are different sensors such as pressure, accelerometer, camera, thermal, and microphone. They monitor conditions at different locations, such as temperature, humidity, vehicular movement, lightning condition, pressure, soil makeup, noise levels, the presence or absence of certain kinds of objects, mechanical stress levels on attached objects, the current characteristics such as speed, direction and size of an object, etc. The state of Wireless Sensor Networks will be checked and the most famous protocols reviewed. As Radio Frequency Identification (RFID) is becoming extremely present and important nowadays, it will be examined as well. RFID has a crucial role to play in business and for individuals alike going forward. The impact of ‘wireless’ identification is exerting strong pressures in RFID technology and services research and development, standards development, security compliance and privacy, and many more. The economic value is proven in some countries while others are just on the verge of planning or in pilot stages, but the wider spread of usage has yet to take hold or unfold through the modernisation of business models and applications. Possible applications of sensor networks are of interest to the most diverse fields. Environmental monitoring, warfare, child education, surveillance, micro-surgery, and agriculture are only a few examples. Some real hardware applications in the United States of America will be checked as it is probably the country that has investigated most in this area. Universities like Berkeley, UCLA (University of California, Los Angeles) Harvard and enterprises such as Intel are leading those investigations. But not just USA has been using and investigating wireless sensor networks. University of Southampton e.g. is to develop technology to monitor glacier behaviour using sensor networks contributing to fundamental research in glaciology and wireless sensor networks. Coalesenses GmbH (Germany) and ETH Zurich are working in applying wireless sensor networks in many different areas too. A Spanish solution will be the one examined more thoroughly for being innovative, adaptable and multipurpose. This study of the sensor has been focused mainly to traffic applications but it cannot be forgotten the more than 50 different application compilation that has been published by this specific sensor’s firm. Currently there are many vehicle surveillance technologies including loop sensors, video cameras, image sensors, infrared sensors, microwave radar, GPS, etc. The performance is acceptable but not sufficient because of their limited coverage and expensive costs of implementation and maintenance, specially the last one. They have defects such as: line-ofsight, low exactness, depending on environment and weather, cannot perform no-stop work whether daytime or night, high costs for installation and maintenance, etc. Consequently, in actual traffic applications the received data is insufficient or bad in terms of real-time owed to detector quantity and cost. With the increase of vehicle in urban road networks, the vehicle detection technologies are confronted with new requirements. Wireless sensor network is the state of the art technology and a revolution in remote information sensing and collection applications. It has broad prospect of application in intelligent transportation system. An application for target tracking and counting using a network of binary sensors has been developed. This would allow the appliance to spend much less energy when transmitting information and to make more independent devices in order to have a better traffic control. The application is focused on the efficacy of collaborative tracking rather than on the communication protocols used by the sensor nodes. Holiday crowds are a good case in which it is necessary to keep count of the cars on the roads. To this end a Matlab simulation has been produced for target tracking and counting using a network of binary sensors that e.g. could be implemented in Libelium’s solution. Libelium is the enterprise that has developed the sensor that will be deeply examined. This would allow the appliance to spend much less energy when transmitting information and to make more independent devices. The promising results obtained indicate that binary proximity sensors can form the basis for a robust architecture for wide area surveillance and tracking. When the target paths are smooth enough ClusterTrack particle filter algorithm gives excellent performance in terms of identifying and tracking different target trajectories. This algorithm could, of course, be used for different applications and that could be done in future researches. It is not surprising that binary proximity sensor networks have attracted a lot of attention lately. Despite the minimal information a binary proximity sensor provides, networks of these sensing modalities can track all kinds of different targets classes accurate enough.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente proyecto fin de carrera, realizado por el ingeniero técnico en telecomunicaciones Pedro M. Matamala Lucas, es la fase final de desarrollo de un proyecto de mayor magnitud correspondiente al software de vídeo forense SAVID. El propósito del proyecto en su totalidad es la creación de una herramienta informática capacitada para realizar el análisis de ficheros de vídeo, codificados y comprimidos por el sistema DV –Digital Video-. El objetivo del análisis, es aportar información acerca de si la cinta magnética presenta indicios de haber sido manipulada con una edición posterior a su grabación original, además, de mostrar al usuario otros datos de interés como las especificaciones técnicas de la señal de vídeo y audio. Por lo tanto, se facilitará al usuario, analista de vídeo forense, información que le ayude a valorar la originalidad del contenido del soporte que es sujeto del análisis. El objetivo específico de esta fase final, es la creación de la interfaz de usuario del software, que informa tanto del código binario de los sectores significativos, como de su interpretación tras el análisis. También permitirá al usuario el reporte de los resultados, además de otras funcionalidades que le permitan la navegación por los sectores del código que han sido modificados como efecto colateral de la edición de la cinta magnética original. Otro objetivo importante del proyecto ha sido la investigación de metodologías y técnicas de desarrollo de software para su posterior implementación, buscando con esto, una mayor eficiencia en la gestión del tiempo y una mayor calidad de software con el fin de garantizar su evolución y sostenibilidad en el futuro. Se ha hecho hincapié en las metodologías ágiles que han ido ganando relevancia en el sector de las tecnologías de la información en las últimas décadas, sustituyendo a metodologías clásicas como el desarrollo en cascada. Su flexibilidad durante el ciclo de vida del software, permite obtener mejores resultados cuando las especificaciones no están del todo definidas, ajustándose de este modo a las condiciones del proyecto. Resumiendo las especificaciones técnicas del software, C++ es el lenguaje de programación orientado a objetos con el que se ha desarrollado, utilizándose la tecnología MFC -Microsoft Foundation Classes- para la implementación. Es un proyecto MFC de tipo cuadro de dialogo,creado, compilado y publicado, con la herramienta de desarrollo integrado Microsoft Visual Studio 2010. La arquitectura con la que se ha estructurado es la arquetípica de tres capas, compuesta por la interfaz de usuario, capa de negocio y capa de acceso a datos. Se ha visto necesario configurar el proyecto con compatibilidad con CLR –Common Languages Runtime- para poder implementar la funcionalidad de creación de reportes. Acompañando a la aplicación informática, se presenta la memoria del proyecto y sus anexos correspondientes a los documentos EDRF –Especificaciones Detalladas de Requisitos funcionales-, EIU –Especificaciones de Interfaz de Usuario , DT -Diseño Técnico- y Guía de Usuario. SUMMARY. This dissertation, carried out by the telecommunications engineer Pedro M. Matamala Lucas, is in its final stage and is part of a larger project for the software of forensic video called SAVID. The purpose of the entire project is the creation of a software tool capable of analyzing video files that are coded and compressed by the DV -Digital Video- System. The objective of the analysis is to provide information on whether the magnetic tape shows signs of having been tampered with after the editing of the original recording, and also to show the user other relevant data and technical specifications of the video signal and audio. Therefore the user, forensic video analyst, will have information to help assess the originality of the content of the media that is subject to analysis. The specific objective of this final phase is the creation of the user interface of the software that provides information about the binary code of the significant sectors and also its interpretation after analysis. It will also allow the user to report the results, and other features that will allow browsing through the sections of the code that have been modified as a secondary effect of the original magnetic tape being tampered. Another important objective of the project is the investigation of methodologies and software development techniques to be used in deployment, with the aim of greater efficiency in time management and enhanced software quality in order to ensure its development and maintenance in the future. Agile methodologies, which have become important in the field of information technology in recent decades, have been used during the execution of the project, replacing classical methodologies such as Waterfall Development. The flexibility, as the result of using by agile methodologies, during the software life cycle, produces better results when the specifications are not fully defined, thus conforming to the initial conditions of the project. Summarizing the software technical specifications, C + + the programming language – which is object oriented and has been developed using technology MFC- Microsoft Foundation Classes for implementation. It is a project type dialog box, created, compiled and released with the integrated development tool Microsoft Visual Studio 2010. The architecture is structured in three layers: the user interface, business layer and data access layer. It has been necessary to configure the project with the support CLR -Common Languages Runtime – in order to implement the reporting functionality. The software application is submitted with the project report and its annexes to the following documents: Functional Requirements Specifications - Detailed User Interface Specifications, Technical Design and User Guide.