151 resultados para Moto-Taxi
Resumo:
La radiazione elettromagnetica è una singola entità, come si deduce dall’universalità delle leggi di Maxwell, nonostante lo spettro elettromagnetico sia caratterizzato da regioni a cui si associano nomi differenti. Questo implica l’esistenza di un meccanismo fondamentale comune alla base di tutti i processi di radiazione, che si identifica in una carica in moto non uniforme. Infatti una carica stazionaria ha un campo elettrico costante e un campo magnetico nullo, quindi non irradia; lo stesso vale per una carica in moto uniforme. La radiazione di Bremsstrahlung, che avviene nel continuo, spaziando dal radio ai raggi gamma, fu scoperta negli anni ’30 del secolo scorso, in seguito all’osservazione che la perdita di energia che subisce un elettrone attraversando la materia non è data unicamente dalla ionizzazione: l’elettrone, accelerato dal nucleo ionizzato, irradia e, di conseguenza, viene frenato. Letteralmente “Bremsstrahlung“ significa “radiazione di frenamento” e in astrofisica rappresenta il principale meccanismo di raffreddamento di un plasma a temperature molto elevate; nel seguente elaborato tale plasma sarà considerato monoatomico e completamente ionizzato. Dall’analisi dello spettro di Bremsstrahlung si possono rilevare la temperatura e la misura di emissione della nube di gas osservato, che consentono di ricavare la densità, la massa e la luminosità della nube stessa. Nel capitolo 1 vengono riportate la descrizione di questo processo di radiazione e le principali formule che lo caratterizzano, illustrate in ambiente semiclassico (Bremsstrahlung termica) e in ambiente relativistico (Bremsstrahlung relativistica). Nel capitolo 2 segue la trattazione di alcuni esempi astrofisici: le regioni HII; il gas intergalattico degli ammassi di galassie ed emettono principalmente nella banda X; le galassie Starburst; le binarie X; la componente elettronica dei raggi cosmici e i brillamenti solari; infine un accenno agli oggetti di Herbig-Haro.
Resumo:
Le Millisecond Pulsar (MSP) sono stelle di neutroni magnetizzate e rapidamente rotanti, prodotte da fenomeni di accrescimento di massa e momento angolare da parte di una stella compagna. Secondo lo scenario canonico di formazione, è atteso che la stella compagna sia una nana bianca di He, privata del suo inviluppo esterno. Tuttavia, in un numero crescente di casi, la compagna della MSP è stata identificata in una stella di piccola massa, non degenere, ancora soggetta a fenomeni di perdita di massa. Queste MSP vengono comunemente chiamate ''Black-Widow'' (BW) e sono l'oggetto di studio di questa tesi. In particolare, l'obiettivo di questo lavoro è l'identificazione della controparte ottica della PSR J1953+1846A nell'ammasso globulare M71. Essa è classificata come BW, data la piccola massa della compagna (~0.032 Msun) e il segnale radio eclissato per circa il 20% dell'orbita. Tramite l'uso di osservazioni ad alta risoluzione con il telescopio spaziale Hubble, abbiamo identificato, in una posizione compatibile con la MSP, un debole oggetto, la cui variabilità mostra una periodicità coerente con quella del sistema binario, noto dalla banda radio. La struttura della curva di luce è indicativa della presenza di fenomeni di irraggiamento della superficie stellare esposta all'emissione della MSP e dalla sua analisi abbiamo stimato alcuni parametri fisici della compagna, come la temperatura superficiale ed il fattore di riempimento del lobo di Roche. Dal confronto tra le curve di luce X ed ottica, abbiamo inoltre trovato evidenze a favore della presenza di shocks nelle regioni intrabinarie. Abbiamo quindi evidenziato l'estrema similarità di questo sistema con l'unica compagna di BW attualmente nota in un ammasso globulare: PSR J1518+0204C. Infine, abbiamo effettuato uno studio preliminare delle controparti ottiche delle sorgenti X dell'ammasso. Abbiamo così identificato due AGN che, insieme ad altre due galassie, hanno permesso la determinazione del moto proprio assoluto delle stelle dell'ammasso.
Resumo:
Il lavoro di tesi si propone di analizzare l'evoluzione dinamica di una faglia caratterizzata da due asperità complanari contraddistinte da diverso attrito (modello asimmetrico) e da accoppiamento viscoelastico. Il modello reologico assunto per la crosta terrestre è di tipo Maxwelliano: lo sforzo trasferito da un'asperità all'altra in occasione degli scorrimenti delle asperità stesse subisce parziale rilassamento durante il periodo intersismico, con conseguente anticipo o ritardo degli eventi sismici successivi. Lo studio del sistema viene condotto tramite un modello di faglia discreto, in cui lo stato della faglia è determinato da tre variabili che rappresentano i deficit di scorrimento delle asperità e il loro accoppiamento viscoelastico. Scopo principale della tesi è quello di caratterizzare i differenti modi dinamici del sistema, determinando equazioni del moto e orbite nello spazio delle fasi e confrontando i risultati ottenuti con i modelli precedentemente sviluppati, con particolare riferimento al caso simmetrico (asperità caratterizzate dallo stesso attrito) studiato in [Amendola e Dragoni (2013)] e al caso di accoppiamento puramente elastico analizzato in [Dragoni e Santini (2012)]. Segue l'applicazione del modello all'evento sismico verificatosi in Alaska nel 1964, generato dallo scorrimento delle asperità di Kodiak Island e Prince William Sound: lo studio verte in particolare sulla valutazione dello stato di sforzo sulla faglia prima e dopo il terremoto, la determinazione della funzione sorgente (moment rate) a esso associata e la caratterizzazione della possibile evoluzione futura del sistema. Riferimenti bibliografici Amendola, A. & Dragoni, M., “Dynamics of a two-fault system with viscoelastic coupling”. Nonlinear Processes in Geophysics, 20, 1–10, 2013. Dragoni, M. & Santini, S., “Long-term dynamics of a fault with two asperities of different strengths”. Geophysical Journal International, 191, 1457–1467, 2012.
Resumo:
L'elaborato si pone l'obiettivo di sviluppare un controllo sensorless di posizione per un attuatore tubolare pentafase anisotropo a magneti permanenti. Le peculiarità degli attuatori tubolari sono molteplici: assenza di organi di trasmissione del moto; compattezza; elevate densità di forza e prestazioni nella dinamica, con una più ampia banda passante per il sistema di controllo; maggiore precisione, risoluzione, ripetibilità ed affidabilità. Tale tipologia di macchina è pertanto molto interessante in diverse applicazioni quali robotica, automazione, packaging, sistemi di posizionamento ecc., ed è altresì promettente nei settori aerospaziale e automotive. L'azionamento in studio è inoltre di tipo multifase. In tal caso si ottengono diversi vantaggi: possibilità di suddividere la potenza su un numero elevato di rami del convertitore; capacità di lavorare in condizioni di guasto; incremento della densità di coppia della macchina; possibilità di controllare in modo indipendente e con un solo inverter più macchine collegate in serie. Prestazioni migliori della macchina si possono ottenere con un opportuno sistema di controllo. Nel caso di azionamenti a magneti permanenti risulta particolarmente attraente il controllo di tipo sensorless della posizione rotorica, in alternativa ad un encoder o un resolver. Questo aumenta l'affidabilità, riduce i costi e diminuisce l'ingombro complessivo dell'azionamento. Appare molto interessante l'utilizzo di un azionamento tubolare di tipo multifase, e ancor più lo sviluppo di un apposito controllo di posizione di tipo sensorless. L’algoritmo sensorless di stima della posizione dell’attuatore può essere sviluppato partendo dall’anisotropia di macchina, sfruttando la possibilità peculiare delle macchine multifase di estrarre informazioni sullo stato attraverso i molteplici gradi di libertà presenti. Nel caso in questione si tratta del controllo della terza armonica spaziale del campo magnetico al traferro. Fondamentale è la definizione di un modello matematico in grado di rappresentare in modo opportuno l’anisotropia di macchina. In letteratura non sono ancora presenti modelli adatti a descrivere il dispositivo in questione; pertanto una parte essenziale della tesi è stata dedicata a definire tale modello e a verificarne la validità. Partendo dal modello è possibile dunque sviluppare un appropriato algoritmo di controllo sensorless e rappresentare in simulink l'intero azionamento. Nella parte conclusiva del lavoro di tesi vengono presentate le prove sperimentali, finalizzate alla determinazione dei parametri di macchina e alla verifica del funzionamento del sistema di controllo. Infine sono confrontati i risultati ottenuti rispetto a quelli realizzati con controlli di tipo tradizionale.
Resumo:
Negli ultimi cinquant’anni, il trasporto aereo ha sperimentato una rapida espansione, parallelamente alla crescita dell’economia globale. Gli aeroporti, oggi, rappresentano strutture complesse, sulle quali si concentrano interessi economici, sociali e strategici di notevole importanza. Il traffico passeggeri, espresso in RPK (Revenue Passenger Kilometers – ricavo per passeggero-chilometro trasportato), dal 1960, è cresciuto di quasi il 9% l’anno, più del doppio del Prodotto Interno Lordo (PIL), e con un tasso di crescita superiore rispetto alle altre modalità di trasporto. Si prevede che il traffico aereo, sia passeggeri che merci, continuerà ad aumentare nel prossimo futuro: le stime di crescita del traffico aereo riportate nell’ultimo rapporto di valutazione ambientale prodotto dall’ICAO (ICAO Environmental Report 2013) prevedono, per il periodo 2010-2030, un aumento del tasso di crescita annuo dei passeggeri, espresso in RPK, pari al +4,9%. Il valore stimato di RPK per il 2030 è pari a 13 bilioni, quasi tre volte maggiore di quello registrato nel 2010. Come conseguenza, anche le emissioni nocive per l’ambiente e per il clima direttamente legate al trasporto aereo sono aumentate, perché l’aumento della domanda di trasporto aereo ha superato la riduzione delle emissioni dovute ai continui miglioramenti apportati dalla tecnologia e dall’ottimizzazione delle procedure operative.
Resumo:
Sono rari i problemi risolubili in maniera esatta in meccanica quantistica. Ciò è legato alle difficoltà matemtiche insite nella teoria dei quanti. Inoltre i problemi risolti, pur essendo in alcuni casi delle ottime approssimazioni, sono spesso delle astrazioni delle situazioni reali. Si pensi ad esempio al caso di una particella quantistica di un problema unidimensionale. Questi sistemi sono talmente astratti da violare un principio fondamentale, il principio di indetermi- nazione. Infatti le componenti dell’impulso e della posizione perpendicolari al moto sono nulle e quindi sono note con certezza ad ogni istante di tempo. Per poter ottenere una descrizione dei modelli che tendono alla realtà è necessario ricorrere alle tecniche di approssimazione. In questa tesi sono stati considerati i fenomeni che coinvolgono una interazione variabile nel tempo. In particolare nella prima parte è stata sviluppata la teoria delle rappresentazioni della meccanica quantistica necessaria per la definizione della serie di Dyson. Questa serie oper- atoriale dovrebbe convergere (il problema della convergenza non è banale) verso l’operatore di evoluzione temporale, grazie al quale è possibile conoscere come un sistema evolve nel tempo. Quindi riuscire a determinare la serie di Dyson fino ad un certo ordine costituisce una soluzione approssimata del problema in esame. Supponiamo che sia possibile scomporre l’hamiltoniana di un sistema fisico nella somma di due termini del tipo: H = H0 + V (t), dove V (t) è una piccola perturbazione dipendente dal tempo di un problema risolubile esattamente caratterizzato dall’hamiltoniana H0 . In tal caso sono applicabili i metodi della teoria perturbativa dipendente dal tempo. Sono stati considerati due casi limite, ovvero il caso in cui lo spettro dell’hamiltoniana imperturbata sia discreto e non degenere ed il caso in cui lo spettro sia continuo. La soluzione al primo ordine del caso discreto è stata applicata per poter formu- lare il principio di indeterminazione energia-tempo e per determinare le regole di selezione in approssimazione di dipolo elettrico. Il secondo caso è servito per spiegare il decadimento beta, rimanendo nel campo della teoria quantistica classica (per una trattazione profonda del problema sarebbe necessaria la teoria dei campi).
Resumo:
Con un sistema di multivisione correttamente installato e calibrato, si è tracciato il moto di un drone a seguito di operazioni di triangolazione e ne si è controllata automaticamente la traiettoria.
Resumo:
Nella prima sezione di questo lavoro verranno esposti i ragionamenti fisici alla base della scrittura delle equazioni di London-London (1935), capaci di descrivere due importanti fenomeni riguardanti i materiali superconduttori quali la conduttività perfetta (resistenza nulla) e il diamagnetismo perfetto (Effetto Meissner). Verrà in essa infine brevemente descritto l'effetto della più generale conservazione del flusso magnetico nei superconduttori secondo il modello classico. Nella seconda sezione verrà esposto il ragionamento alla base della scrittura del Modello Quantistico Macroscopico, proposto da F.London nel 1948 per cercare di unificare la descrizione elettrodinamica classica della superconduttività con la meccanica quantistica, attraverso la scrittura di una funzione d'onda macroscopica capace di descrivere l'intero ensemble di portatori di carica superelettronici nel loro moto di conduzione.Esso permetterà di prevedere il fenomeno della quantizzazione del flusso magnetico intrappolato da una regione superconduttrice molteplicemente connessa.
Resumo:
Una teoria di unificazione ha il notevole compito di fornire un modello in grado di unificare le forze fondamentali della natura in una sola. Storicamente uno dei primi tentativi è rappresentato dal modello di Kaluza, che propone una formulazione unificata di gravità ed elettromagnetismo. In 4 dimensioni il campo gravitazionale e il campo elettromagnetico sono entità nettamente separate. Tale dualismo può essere superato estendendo la teoria della Relatività Generale ad uno spaziotempo a 5 dimensioni. Se alle consuete 4 si aggiunge una quinta dimensione spaziale, allora si dimostra che la gravità e l’elettromagnetismo possono essere visti come la manifestazione di un unico campo di forza, che è interpretabile in termini della geometria dello spaziotempo a 5 dimensioni. Nonostante i suoi intrinseci limiti, il modello di Kaluza rappresenta comunque un punto di partenza per molte altre teorie di campo unificato più moderne e a più di 5 dimensioni. L'obiettivo è di sviluppare le linee fondamentali del modello di Kaluza. Preliminarmente si riportano i risultati principali dell'elettromagnetismo e della Relatività Generale, dato che il modello si formula a partire da questi. Si stabilisce la condizione di cilindro, secondo cui le quantità fisiche non subiscono variazioni nella quinta dimensione. Si ipotizza un ansatz per il tensore metrico 5D e si scrivono le equazioni di campo unitario e della geodetica, come estensioni a 5 dimensioni di quelle in 4. Si dimostra che il campo unitario in 4 dimensioni si separa nel campo scalare costante, nel campo elettromagnetico e nel campo gravitazionale. Le componenti quadridimensionali della geodetica 5D riconducono a quella 4D e alle leggi del moto 4D in presenza dei campi gravitazionale ed elettromagnetico. Inoltre si interpreta la carica elettrica come la quinta componente della velocità covariante 5D.
Resumo:
La matematica è un’attività umana che sembra non lasciare indifferente quasi nessuno: alcuni rimangono affascinati dalla sua ‘magia’, molti altri provano paura e rifiutano categoricamente persino di sentirla nominare. Spesso, non solo a scuola, si percepisce la matematica come un’attività distaccata, fredda, lontana dalle esigenze del mondo reale. Bisognerebbe, invece, fare in modo che gli studenti la sentano come una risorsa culturale importante, da costruire personalmente con tempo, fatica e soddisfazione. Gli studenti dovrebbero avere l’opportunità di riflettere sul senso di fare matematica e sulle sue potenzialità, attraverso attività che diano spazio alla costruzione autonoma, alle loro ipotesi e alla condivisione delle idee. Nel primo capitolo, a partire dalle difficoltà degli studenti, sono analizzati alcuni studi sulla straordinaria capacità della matematica di organizzare le nostre rappresentazioni del mondo che ci circonda e sull’importanza di costruire percorsi didattici incentrati sulla modellizzazione matematica. Dalla considerazione di questi studi, è stato elaborato un progetto didattico, presentato nel secondo capitolo, che potesse rappresentare un’occasione inconsueta ma significativa per cercare di chiarire l’intreccio profondo tra matematica e fisica. Si tratta di una proposta rivolta a studenti all’inizio del secondo biennio in cui è prevista una revisione dei problemi della cinematica attraverso le parole di Galileo. L’analisi di documenti storici permette di approfondire le relazioni tra grandezze cinematiche e di mettere in evidenza la struttura matematica di tali relazioni. Le scelte che abbiamo fatto nella nostra proposta sono state messe in discussione da alcuni insegnanti all’inizio della formazione per avere un primo riscontro sulla sua validità e sulle sue potenzialità. Le riflessioni raccolte sono state lo spunto per trarre delle considerazioni finali. Nelle appendici, è presente materiale di lavoro utilizzato per la progettazione e discussione del percorso: alcuni testi originali di Aristotele e di Galileo, le diapositive con cui la proposta è stata presentata agli studenti universitari e un esempio di protocollo di costruzione di Geogebra sul moto parabolico.
Resumo:
Scopo del presente lavoro è introdurre i principali strumenti fisico-matematici utilizzati per la descrizione del moto (di un numero limitato) di oggetti astronomici, soggetti esclusivamente alle loro vicendevoli interazioni gravitazionali. Tali strumenti sono quelli messi a punto nell'ambito della soluzione del Problema dei Due Corpi e del Problema dei Tre Corpi. Verranno anche esaminate alcune applicazioni pratiche di tali metodologie d'indagine.
Progettazione di un gruppo espulsore per macchina automatica adibita alla formatura di dadi pressati
Resumo:
Questo lavoro si occupa della riprogettazione del gruppo espulsore di una macchina automatica. Essa permette la formatura di dadi pressati ed il gruppo in esame gestisce la fase di espulsione dei prodotti. Il lavoro ha portato ad un nuovo gruppo per il quale sono state fatte, successivamente, tutte le valutazioni necessarie per il suo funzionamento in termini di analisi cinematiche, scelta delle leggi di moto e dei sistemi di movimentazione. Alla fine di tutto è stata fatta una simulazione al CAD.
Resumo:
Il lavoro di questa tesi ha previsto l'acquisizione e l'elaborazione di dati geofisici al fine di determinare la risposta sismica di tre siti della Rete Accelerometrica Nazionale (RAN), collocandosi all'interno del progetto sismologico S2-2014 Constraining Observations into Seismic Hazard gestito dal Dipartimento di Protezione Civile Nazionale e dall’Istituto Nazionale di Geofisica e di Vulcanologia. Tale necessità nasce dal fatto che il più delle volte le informazioni per la corretta caratterizzazione geofisica dei siti ospitanti le stazioni accelerometriche risultano essere insufficienti, rendendo così i dati acquisiti non idonei per l'utilizzo in sede di calcolo delle leggi di attenuazione dalle quali successivamente vengono derivate le mappe di pericolosità sismica a livello nazionale e locale. L'obbiettivo di questo lavoro di tesi è stato quello di determinare l'eventuale presenza di effetti di sito o effetti di interazione suolo-struttura, per tre stazioni ubicate in Friuli-Venezia Giulia (codici stazioni MAI, TLM1 e BRC), capaci di amplificare il moto del terreno nella parte di suolo compresa fra il bedrock sismico (inteso come strato che non amplifica) e il piano campagna. Le principali tecniche utilizzate sono le seguenti: HVSR ossia rapporto spettrale della componente orizzontale su quella verticale da misure di rumore ambientale acquisite e EHV ovvero rapporto spettrale della componente orizzontale su verticale da registrazione di terremoti scaricate dal database accelerometrico italiano ITACA. I risultati delle due tecniche sono stati poi confrontati al fine di verificare un'eventuale congruenza, portando alle seguenti conclusioni. La caratterizzazione della stazione TLM1 ha portato alla importante conclusione che il sito non è idoneo per l’acquisizione di dati accelerometrici da utilizzare per il calcolo di leggi predittive o di attenuazione. La stazione accelerometrica è ospitata all’interno di un box in lamiera su una collina nel comune di Verzegnis (UD). Il problema principale che riguarda questo sito è la vicinanza della diga Ambiesta e del relativo invaso. La stazione di BRC è collocata all’interno di una cabina di trasformazione dell’ENEL sul lato destro del torrente Cellina, al suo ingresso nel lago di Barcis (PN). Le condizioni topografiche della zona, molto impervie, non consentono la corretta acquisizione dei dati. Un ulteriore fattore di disturbo è dato dall’interazione suolo-struttura, causata dalla cabina ENEL in cui è alloggiata la strumentazione. La caratterizzazione della stazione MAI collocata all'interno di una cabina ENEL nel centro del comune di Majano (UD) ha portato alla conclusione che questa è l'unica delle tre stazioni considerate capace di acquisire dati utilizzabili per il processo di validazione per le stime di pericolosità sismica. Questo perché le condizioni topografiche dell’area, pianura con stratificazione 1D, hanno permesso di sfruttare a pieno le potenzialità delle metodologie utilizzate, consentendo anche la ricostruzione di profili di velocità delle onde di taglio S con i quali è stata assegnata la categoria C del suolo previsto dall'approccio semplificato presente nelle NTC08.
Resumo:
Tra i vari impatti causati dall’aumento costante di CO2 nell’atmosfera troviamo l’acidificazione oceanica. Le conseguenze di questo processo non sono interamente conosciute. Per questo è importante conoscere la risposta all’acidificazione degli organismi marini e degli ecosistemi. Lo scopo di questo lavoro è valutare le conseguenze dell’acidificazione su comunità meiofaunali epifite. Sono stati quindi condotti campionamenti in situ, in una zona acidificata in conseguenza della presenza di vents idrotermali presenti nell’isola di Ischia (Italia). La zona di studio indagata è stata suddivisa in due siti, differenti per esposizione al moto ondoso. All’interno di ciascuna esposizione sono stati individuate tre stazioni, differenti per il grado di acidificazione. Sono stati prelevati campioni di alghe lungo il gradiente di acidificazione con associata la meiofauna e sono stati considerati come substrato secondario. Le alghe sono state analizzate attraverso descrittori della loro complessità mentre gli organismi sono stati contati e classificati a livello di grandi taxa. I descrittori sintetici di ricchezza tassonomica e di abbondanza non presentano valori di correlazione alti con i descrittori di complessità algale. Invece, i risultati ottenuti considerando l’intera comunità mostrano una relazione significativa fra la struttura delle comunità meiofaunali e l’acidificazione e anche con la diversa esposizione al moto ondoso. Infine dalle analisi condotte mediante regressione multipla fra tutti i descrittori algali e la struttura di comunità si nota come i primi non giustificano da soli le variazioni dei popolamenti meiobentonici. In definitiva questi risultati sembrerebbero dimostrare che la struttura delle comunità meiofaunali venga influenzata sia dalla acidificazione che dall’esposizione al moto ondoso oltre che dalla struttura dell’habitat. È tuttavia difficile definire se le variazioni nella struttura di comunità sono dovute ad una azione parallela e sinergica dei fattori considerati (esposizione e gradiente) o se si tratta di un effetto a cascata dove l’acidità influenza le comunità algali che a loro volta strutturano le comunità bentoniche associate. In prospettiva di studi futuri sarebbe quindi interessante condurre uno studio simile prendendo in considerazione le possibili relazioni specie-specifiche intercorrenti tra la struttura delle comunità meiofaunali e le differenti specie algali.
Resumo:
Dai Sumeri a Galileo lo studio dei cinque pianeti conosciuti era stato effettuato ad occhio nudo e aveva consentito di comprendere le modalità del loro moto. Con Galileo gli strumenti tecnologici sono posti a servizio della scienza, per migliorare le prestazioni dei sensi umani. La ricerca subisce così una netta accelerazione che porta, nell'arco di soli tre secoli, alla scoperta dei satelliti di Giove e dei pianeti Urano e Nettuno. Quest'ultima è considerata il trionfo della matematica perché effettuata esclusivamente con lunghi e complessi calcoli.