949 resultados para Superconduttività Equazioni di London Modello Quantistico Macroscopico Quantizzazione del flusso
Resumo:
L'oggetto della proposta è un sistema di trasporto guidato di media potenzialità destinato alle aree metropolitane, basato sulla tecnologia della levitazione magnetica. Utilizza magneti permanenti ad alta energia per la sostentazione; un motore lineare sincrono per la propulsione; un dispositivo meccanico, o elettromagnetico, per stabilizzare la guida assicurata dagli stessi magneti della sostentazione. Il contenuto innovativo dell'oggetto non si limita alla parte non convenzionale (levitazione), ma investe tutto il sistema, poiché l'offerta industriale di un sistema destinato alle aree metropolitane è vincente solo se riferita ad un sistema completo (infrastruttura, veicoli, alimentazione, sistema di sicurezza, modello di esercizio, gestione, manutenzione, …). Si descrive inoltre la particolare soluzione inedita con abitacolo sospeso al di sotto dell'involucro tecnologico (comprendente magneti di sostentamento, motore lineare, sistema di guida, sospensione secondaria).
Resumo:
Il presente lavoro di tesi riguarda lo studio di un modello di stima delle emissioni per la previsione della contaminazione ambientale in aria. Il lavoro è stato svolto all’interno del DICAM dell’Università di Bologna attraverso il supporto del relatore Giacomo Antonioni e dei correlatori Ada Saracino e Gigliola Spadoni. L’applicazione modellistica, attraverso l’uso del software CALPUFF, ha trattato le emissioni del camino E312 della sezione Agglomerazione dello stabilimento siderurgico ILVA di Taranto nell’anno 2015. Gli inquinanti simulati sono quelli per i quali lo SME fornisce il flusso di massa: SO2, NOx, PM. Le polveri sono state considerate completamente costituite da polveri PM10 e per esse si è calcolata la concentrazione al suolo e la deposizione. A partire dai risultati per le polveri, ipotizzando che siano in parte veicolati da esse, sono state valutate anche le concentrazioni e le deposizioni di Diossine. Della configurazione modellistica “ottimale” sono stati presentati: ▪ Per i macroinquinanti le medie annue di concentrazione al suolo, e quindi, la dispersione degli inquinanti. ▪ Per i microinquinanti i valori massimi di concentrazione annua e di deposizione ottenuti nell’area di studio. Nel caso in esame, lo studio è stato riferito alla rete deposimetrica di gestione ILVA (per mancanza di dati deposimetrici della rete di gestione ARPA). In particolare è stato preso in considerazione il deposimetro del quartiere Tamburi a fronte delle criticità rilevate nei mesi di Novembre 2014 e Febbraio 2015, tale per cui, visti gli elevatissimi valori di deposizione, vista la notevole importanza che i dati deposimetrici hanno rispetto al rischio sanitario per ingestione, è stata aperta un’indagine della procura che ha affidato l’analisi a ARPA PUGLIA congiunta con l’ISPRA (che ne ha mandato ministeriale) e la Regione Puglia. A fronte di tali episodi, il seguente studio ha voluto fornire un resoconto deposimetrico per l’anno 2015.
Resumo:
Negli ultimi anni, lo scenario di crescente competizione su cui si affaccia il mercato ha spinto le aziende a interessarsi sempre più frequentemente all’ingegneria della manutenzione, allo scopo di avvalersi di tecniche che permettano di pianificare strategie di manutenzione per i sistemi produttivi che siano efficaci nel minimizzare i costi di gestione garantendo prestazioni e livelli di sicurezza elevati. Le tecniche analitiche tipiche dell’ingegneria della manutenzione sono nate in settori industriali che richiedono elevati livelli di progresso tecnologico (aeronautico, nucleare), e si basano su ipotesi specifiche stringenti, che risultano limitanti nel panorama sempre più vasto ed eterogeneo in cui ne si richiede l’applicazione. D’altra parte, la rimozione di tali ipotesi rende necessario il ricorso a tecniche di risoluzione numeriche. In questa tesi si definisce un nuovo modello che permetta di caratterizzare un sistema di produzione tenendo conto di tutti i possibili aspetti di interesse nell’ambito dell’ingegneria della manutenzione. Inoltre, sono descritti gli algoritmi definiti per la risoluzione di tale modello.
Resumo:
Agent-oriented programming (AOP) è un paradigma di programmazione che concepisce un software come insieme di agenti che possiedono caratteristiche di autonomia, proattività e che sono in grado di comunicare con altri agenti. Sebbene sia stato impiegato soprattutto nell'ambito dell'intelligenza artificiale questo tipo di programmazione si rivela utile per lo sviluppo di sistemi distribuiti riuscendo a gestire agilmente problemi di concorrenza. Lo scopo di questa tesi è analizzare le caratteristiche del paradigma e dei software basati su agenti, utilizzando come caso di studio Sarl, un linguaggio general-purpose molto recente. La parte principale del lavoro consiste nella descrizione dei modelli teorici che hanno portato alla nascita della programmazione ad agenti, in particolare del modello BDI, e dei principali framework per lo sviluppo di sistemi multi-agente.
Resumo:
Il presente elaborato, mediante una panoramica sull’intero processo di recupero della cartografia storica con le moderne tecniche geomatiche (con particolare attenzione rivolta alla fase di elaborazione in ambiente digitale), e l’applicazione ad un caso di studio (l’ Ichnoscenografia di Bologna del 1702) vuole mostrare l’importanza dell’utilizzo di tali tecniche, unitamente alla loro versatilità per la salvaguardia, lo studio e la diffusione del patrimonio cartografico storico. L’attività principale consiste nella creazione di un modello 3D georeferenziato della Bologna del 1702, a partire dalla carta del de’ Gnudi, e della sua successiva rappresentazione mediante modalità di Realtà Virtuale. L’immediatezza della comunicazione con varie forme di rappresentazione consente non solo di apprezzare e scoprire in modo nuovo una carta antica, ma anche di effettuare analisi più specifiche, ad esempio in merito all’evoluzione del tessuto storico della città, oppure studi sui metodi di rappresentazione che venivano utilizzati all’epoca della redazione della carta, completamente differenti dagli attuali, soprattutto in termini di precisione. La parte finale della trattazione esamina la possibilità per il fruitore della ricerca di interrogare un database multimediale sulla città e di immergersi in modo virtuale in ambientazioni non più esistenti.
Resumo:
In questa dissertazione verrà affrontata la mancanza di uno strumento che permetta la stesura e la gestione delle versioni di documenti strutturati, proponendo il modello CoVE. Tale modello si fonda sull'integrazione di due tecnologie: Operational Transformation e Versioning Management System. La prima si occupa di fornire un sistema collaborativo pensato per la produzione di documenti, la seconda si occupa di gestire le possibili versioni/varianti che un documento può assumere. Una possibile implementazione di tale modello abbatterebbe tempi e costi necessari alla stesura di documenti strutturati.
Resumo:
Il Modello Standard delle particelle elementari prevede l’universalità del sapore leptonico, cioè l’uguaglianza della probabilità di accoppiamento dei bosoni di gauge carichi dell’interazione debole con tutti i leptoni. Recentemente, le Collaborazioni LHCb, BaBar e Belle, misurando il rapporto tra i branching ratio dei decadimenti $B^0\to D^{∗− }\tau^+\nu_{\tau} e $B^0 →D^{∗−}\mu^+\nu_{\mu}, hanno osservato una deviazione dai valori previsti dal Modello Standard di 3.9 deviazioni standard. Questo interessante risultato, se confermato, indicherebbe l’esistenza di nuove particelle, come per esempio il bosone di Higgs carico. Analogamente ai decadimenti del mesone $B^0$ , è possibile cercare effetti analoghi anche nel rapporto di branching ratio dei decadimenti $D^0\to K^ −\mu^+\nu_{\mu}$ e $D^0\to K^−e^+\nu_e$ . In questo lavoro di tesi è stato realizzato uno studio preliminare di questa misura. In particolare, è stato studiata, tramite simulazioni Monte Carlo, la ricostruzione del processo $D^{*\pm}\to D^0 (\to K^− \mu+\nu_{\mu})\pi_s^{\pm}$ nell’esperimento LHCb. Questo canale ha la particolarità di avere una particella invisibile, il neutrino, al rivelatore LHCb. Tuttavia, mediante vincoli cinematici e topologici, è possibile ricavare le componenti dell’impulso del neutrino, con risoluzioni non paragonabili a quelle di una particella visibile, ma comunque accettabili. In questa tesi sono riportati i calcoli che permettono di ottenere queste informazioni ed è stata studiata la risoluzione sulla massa invariante del $D^{∗\pm}$ . La tesi è organizzata nel seguente modo: il primo capitolo riporta le motivazioni della misura dei rapporti dei branching ratio e l’attuale stato sperimentale; il secondo capitolo contiene una breve descrizione del rivelatore LHCb; il terzo capitolo, infine, descrive lo studio di fattibilità della ricostruzione del decadimento $D^0\to K^-\mu^+\nu_{\mu}.
Resumo:
Le zone costiere appartengono alle aree con alta densità di popolazione, nonostante queste regioni siano le più vulnerabili al rischio di onde violente da tempesta e alla tracimazione di esse. In aggiunta, a causa del cambiamento climatico e all’innalzamento del livello del mare, si prevede un incremento nel numero e nell’intensità di tempeste violente. Come risultato, un grande quantitativo di acqua può tracimare, ciò porta all’instabilità e all’allagamento dell’eventuale opera atta alla protezione della costa, un disastro per la sicurezza della popolazione e per l’economia della zona. Per risolvere queste problematiche si è scelta una geometria tipica di difesa della costa e si è compiuta un’analisi di sensitività del modello, analizzando se al variare dei parametri caratteristici del muro paraonde e del relativo parapetto, il modello avverte una variazione della portata di tracimazione. Attraverso questo studio si vuole scoprire qual è la configurazione di cresta che da un punto di vista progettuale è il compromesso migliore tra efficacia della riduzione della portata e sollecitazioni accettabili.
Resumo:
SOMMARIO: 1. La “governance” nelle aziende familiari: rilevanza, aspetti distintivi e criticità. 2. Il ruolo della compagine proprietaria nella definizione dei meccanismi di governo. 3. Composizione e funzioni del consiglio d’amministrazione. 4. I patti di famiglia come strumento di disciplina dei rapporti impresa-famiglia. 5. Considerazioni conclusive: prospettive di analisi e scenari futuri negli studi sulla governance delle imprese familiari.
Resumo:
The exponential growth of the world population has led to an increase of settlements often located in areas prone to natural disasters, including earthquakes. Consequently, despite the important advances in the field of natural catastrophes modelling and risk mitigation actions, the overall human losses have continued to increase and unprecedented economic losses have been registered. In the research work presented herein, various areas of earthquake engineering and seismology are thoroughly investigated, and a case study application for mainland Portugal is performed. Seismic risk assessment is a critical link in the reduction of casualties and damages due to earthquakes. Recognition of this relation has led to a rapid rise in demand for accurate, reliable and flexible numerical tools and software. In the present work, an open-source platform for seismic hazard and risk assessment is developed. This software is capable of computing the distribution of losses or damage for an earthquake scenario (deterministic event-based) or earthquake losses due to all the possible seismic events that might occur within a region for a given interval of time (probabilistic event-based). This effort has been developed following an open and transparent philosophy and therefore, it is available to any individual or institution. The estimation of the seismic risk depends mainly on three components: seismic hazard, exposure and vulnerability. The latter component assumes special importance, as by intervening with appropriate retrofitting solutions, it may be possible to decrease directly the seismic risk. The employment of analytical methodologies is fundamental in the assessment of structural vulnerability, particularly in regions where post-earthquake building damage might not be available. Several common methodologies are investigated, and conclusions are yielded regarding the method that can provide an optimal balance between accuracy and computational effort. In addition, a simplified approach based on the displacement-based earthquake loss assessment (DBELA) is proposed, which allows for the rapid estimation of fragility curves, considering a wide spectrum of uncertainties. A novel vulnerability model for the reinforced concrete building stock in Portugal is proposed in this work, using statistical information collected from hundreds of real buildings. An analytical approach based on nonlinear time history analysis is adopted and the impact of a set of key parameters investigated, including the damage state criteria and the chosen intensity measure type. A comprehensive review of previous studies that contributed to the understanding of the seismic hazard and risk for Portugal is presented. An existing seismic source model was employed with recently proposed attenuation models to calculate probabilistic seismic hazard throughout the territory. The latter results are combined with information from the 2011 Building Census and the aforementioned vulnerability model to estimate economic loss maps for a return period of 475 years. These losses are disaggregated across the different building typologies and conclusions are yielded regarding the type of construction more vulnerable to seismic activity.
Resumo:
In questo inizio di secolo, la nuova organizzazione sociale del lavoro pone una serie di domande e di sfide ai ricercatori che intendono aiutare le persone a progettare la loro vita lavorativa. Nell'era della globalizzazione anche per quanto riguarda il career counseling, abbiamo deciso di affrontare queste problematiche e di dare delle risposte che si caratterizzassero come innovative attraverso la costituzione di un forum di discussione internazionale. Si è proceduto in questo modo per evitare le difficoltà che generalmente si incontrano quando si mettono a punto dei modelli e dei metodi in un Paese e poi si esportano in altre culture con l'intento di adattarli alle stesse. Questo articolo presenta i primi risultati della collaborazione che si è registrata - un modello e dei metodi per la consulenza di orientamento. Il modello per l'intervento nell'ambito dell'approccio Life Design si caratterizza per cinque presupposti relativi al modo di vedere le persone e la loro vita lavorativa. Essi riguardano le possibilità contestuali, i processi dinamici, i progressi non-lineari, le molteplici prospettive e la presenza di pattern personali. Partendo da questi cinque presupposti abbiamo messo a punto un modello basato sull'epistemologia del costruzionismo sociale, che sostiene che la conoscenza e l'identità di un individuo sono i prodotti dell'interazione sociale e che il significato è costruito attraverso il discorso. Questo approccio fa riferimento anche alla teoria della costruzione di sé di Guichard (2005) e della costruzione della vita professionale di Savickas (2005), che descrivono le azioni utili a facilitare la progettazione del proprio futuro. Particolare attenzione viene data agli interventi nel corso dell'arco di vita, olistici, contestuali e preventivi.
Resumo:
Analizar el estado de la cuesti??n de la educaci??n en valores en Educaci??n Primaria. Describir el contexto espec??fico en el que se asienta la investigaci??n. Explorar las posibilidades de educar en valores a trav??s del di??logo en un aula de Educaci??n Primaria. Establecer orientaciones sobre la educaci??n en valores en Educaci??n Primaria. El modelo metodol??gico elegido es la etnograf??a educativa y el m??todo de la investigaci??n es el estudio de caso. La investigaci??n se ha centrado en un estudio de caso ??nico: el estudio en profundidad de un aula de Educaci??n Primaria, realizando la investigadora una observaci??n participante. El centro educativo elegido es el CP Germ??n Fern??ndez Ramos de Oviedo, popularmente conocido como CP Villar Pando, y el aula corresponde a quinto curso, al que acuden veinticinco alumnos, quince ni??os y diez ni??as, de entre nueve y once a??os. De ellos, el 40 por ciento son inmigrantes. La propuesta que se hace en este estudio es que a trav??s del di??logo entre todos los miembros del aula pueden abordarse en profundidad los m??s diversos asuntos morales. El di??logo en el aula permite crear un clima de trabajo muy rico en el que se pueden abordar infinitas tem??ticas de educaci??n en valores, creando un medio reflexivo, en el que confluyan ideas previas sobre el tema, conocimientos acad??micos, experiencias, etc.. El trabajo etnogr??fico ha permitido indagar sobre el enfoque dial??gico de educaci??n en valores en Primaria y los resultados permiten establecer las siguientes conclusiones: 1) El di??logo est?? sometido a normas; 2) No son precisos sofisticados materiales educativos; 3) Permite plantear la educaci??n en valores de manera contextualizada; 4) Permite abordar la educaci??n en valores de modo transversal; 5) Permite desarrollar una ense??anza 'no infantilizadora'; 6) La ense??anza de valores c??vicos no tiene por qu?? ser una actividad acad??mica en sentido estricto; 7) La ense??anza de valores se puede abordar racionalmente; 8) Es una forma de aprender cooperativa, comunitaria; 9) Permite ense??ar al alumnado a dialogar; 10) Se favorece el pensamiento libre y aut??nomo; 11) La metodolog??a dial??gica en educaci??n en valores permite abordar en profundidad diversos contenidos acad??micos; 12) Coherencia entre teor??a-pr??ctica; y 13) Positiva valoraci??n de los implicados.
Resumo:
Sebbene il sistema nervoso enterico (“enteric nervous system”, ENS) svolga un ruolo cruciale nella patogenesi della Scrapie ovina, non esistono tuttavia in letteratura dati sulle popolazioni cellulari progressivamente coinvolte nel corso dell’infezione, né sugli eventuali danni morfo-funzionali da esse subiti. Il presente studio è stato condotto sui plessi mienterici e sottomucosi dell’ileo di 46 pecore di razza Sarda, recanti diversi polimorfismi del gene Prnp (ARQ/ARQ, ARQ/AHQ, ARQ/ARR, ARR/ARR). I suddetti animali, infettati per os all’età di 8 mesi con un ceppo di Scrapie precedentemente caratterizzato nel topo, sono stati sacrificati mediante eutanasia a determinati intervalli di tempo post-infezione (p.i.). E’ stata quindi valutata, tramite immunoistochimica ed immunofluorescenza indiretta su sezioni tissutali e su preparati “wholemount”, l’immunoreattività (IR) nei confronti della PrPSc, del “marker” panneuronale Hu C/D, dell’ossido-nitrico sintetasi (nNOS), della calbindina (CALB) e della proteina fibrillare acida gliale (GFAP). In 8 pecore con genotipo ARQ/ARQ, clinicamente sane e sacrificate a 12-24 mesi p.i., nonché in 5 ovini clinicamente affetti (2 con genotipo ARQ/ARQ, 3 con genotipo ARQ/AHQ), questi ultimi sacrificati rispettivamente a 24, 36 e 40 mesi p.i., le indagini immunoistochimiche hanno consentito di dimostrare la presenza di PrPSc a livello sia dell’encefalo (obex), sia dell’ENS, in particolar modo nei plessi mienterici. In tali distretti il deposito della PrPSc risultava pienamente compatibile con un interessamento delle cellule enterogliali (“enteroglial cells”, EGCs), mentre occasionalmente si notava un contestuale coinvolgimento della componente neuronale ivi residente. In conclusione, i dati della presente indagine consentono di ipotizzare un verosimile coinvolgimento delle EGCs e dei neuroni residenti a livello dei plessi dell’ENS nella patogenesi della Scrapie sperimentale realizzata per os in ovini di razza Sarda.
Resumo:
Questo progetto di ricerca, è stato sviluppato per studiare le caratteristiche anatomofunzionali che definiscono l’articolazione del gomito, ed in modo articolare la presenza dell’angolazione valga che origina dalla diversa orientazione degli assi meccanici dell’avambraccio e del braccio e, denominata in letteratura come carrying angle. L’obiettivo principale di questo lavoro - meglio espresso nei diversi capitoli - è stato, quello di identificare un nuovo approccio di misura per la stima di questo angolo, utilizzabile sia per gli studi di biomeccanica articolare, che per gli studi di analisi del movimento per l’arto superiore. Il primo obiettivo è stato quello di scegliere un algoritmo di calcolo che rispettasse le caratteristiche dell’articolazione, ed in modo particolare abile a minimizzare gli errori introdotti sia nella fase di acquisizione dei punti di repere anatomici, che in quella legata alla predizione del movimento di flesso-estensione, con un modello matematico. Per questo motivo abbiamo dovuto realizzare una serie di misure in un primo tempo su due cadaveri di arto superiore, poi, seguendo le regole classiche per la validazione dell’approccio metodologico adottato, si sono realizzate misure in-vivo, prima in massima estensione e poi durante il movimento. Inizialmente abbiamo pensato di comparare le misure lineari relative alle ampiezze del braccio (ampiezza tra l’epicondilo laterale e mediale) e dell’avambraccio (ampiezza tra lo stiloide ulnare e radiale) con quelle ottenute mediante un antropometro; successivamente dopo aver verificato la ripetibilità tra i diversi operatori nell’ acquisizione dei punti di repere anatomici con il digitalizzatore Faro Arm, abbiamo comparato le misure ottenute relative al carrying angle con quelle di un goniometro standard, classicamente utilizzato nella pratica clinica per la definizione dei range di movimento dell’arto superiore. Infine, considerando la bontà delle misure ottenute, abbiamo riproposto tale metodologia con stumenti stereofotogrammetrici per l’analisi del movimento (VICON System), ottenendo la stessa stabilit`a nell’andamento del carrying angle in funzione della flessione, sia come riportato dagli studi in letteratura, sia come riscontrato nel nostro studio in-vitro. In conclusione, questo lavoro di ricerca ha evidenziato (sia per i risultati ottenuti, che per la elevata numerosità dei soggetti testati), come gli esseri umani presentino una grande variabilità individuale nel valore di questo angolo, e di come questo possa aiutare per la corretta definizione di un modello 3-D dell’arto superiore. Pertanto, gli studi futuri sulla biomeccanica dell’arto superiore dovrebbero includere sempre la valutazione di questa misura.