902 resultados para cubiche legge di gruppo su una cubica punti di ordine 2punti di ordine 3 punti razionali di ordine finitoNagell-Lutz


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il tatto assume un'importanza fondamentale nella vita quotidiana, in quanto ci permette di discriminare le caratteristiche fisiche di un oggetto specifico, di identificarlo e di eventualmente integrare le suddette informazioni tattili con informazioni provenienti da altri canali sensoriali. Questa è la componente sensoriale-discriminativa del tatto. Tuttavia quotidianamente il tatto assume un ruolo fondamentale durante le diverse interazioni sociali, positive, come quando abbracciamo o accarezziamo una persona con cui abbiamo un rapporto affettivo e negative, per esempio quando allontaniamo una persona estranea dal nostro spazio peri-personale. Questa componente è la cosiddetta dimensione affettiva-motivazionale, la quale determina la codifica della valenza emotiva che l'interazione assume. Questa componente ci permette di creare, mantenere o distruggere i legami sociali in relazione al significato che il tocco assume durante l'interazione. Se per esempio riceviamo una carezza da un familiare, questa verrà percepita come piacevole e assumerà un significato affiliativo. Questo tipo di tocco è comunente definito come Tocco Sociale (Social Touch). Gli aspetti discriminativi del tatto sono stati ben caratterizzati, in quanto storicamente, il ruolo del tatto è stato considerato quello di discriminare le caratteristiche di ciò che viene toccato, mentre gli aspetti affettivi sono stati solo recentemente indagati considerando la loro importanza nelle interazioni sociali. Il tocco statico responsabile dell'aspetto discriminante attiva a livello della pelle le grandi fibre mieliniche (Aβ), modulando a livello del sistema nervoso centrale le cortecce sensoriali, sia primarie che secondarie. Questo permette la codifica a livello del sistema nervoso centrale delle caratteristiche fisiche oggettive degli oggetti toccati. Studi riguardanti le caratteristiche del tocco affiliativo sociale hanno messo in evidenza che suddetta stimolazione tattile 1) è un particolare tocco dinamico che avviene sul lato peloso delle pelle con una velocità di 1-10 cm/sec; 2) attiva le fibre amieliniche (fibre CT o C-LTMRs); 3) induce positivi effetti autonomici, ad esempio la diminuzione della frequenza cardiaca e l'aumento della variabilità della frequenza cardiaca; e 4) determina la modulazione di regioni cerebrali coinvolte nella codifica del significato affiliativo dello stimolo sensoriale periferico, in particolare la corteccia insulare. Il senso del tatto, con le sue due dimensioni discriminativa e affiliativa, è quotidianamente usato non solo negli esseri umani, ma anche tra i primati non umani. Infatti, tutti i primati non umani utilizzano la componente discriminativa del tatto per identificare gli oggetti e il cibo e l'aspetto emotivo durante le interazioni sociali, sia negative come durante un combattimento, che positive, come durante i comportamenti affiliativi tra cui il grooming. I meccanismi di codifica della componente discriminativa dei primati non umani sono simili a quelli umani. Tuttavia, si conosce ben poco dei meccanismi alla base della codifica del tocco piacevole affiliativo. Pur essendo ben noto che i meccanorecettori amilienici C-LTMRs sono presenti anche sul lato peloso della pelle dei primati non umani, attualmente non ci sono studi riguardanti la correlazione tra il tocco piacevole e la loro modulazione, come invece è stato ampiamente dimostrato nell'uomo. Recentemente è stato ipotizzato (Dunbar, 2010) il ruolo delle fibre C-LTMRs durante il grooming, in particolare durante il cosiddetto swepping. Il grooming è costituito da due azioni motorie, lo sweeping e il picking che vengono eseguite in modo ritmico. Durante lo sweeping la scimmia agente muove il pelo della scimmia ricevente con un movimento a mano aperta, per poter vedere il preciso punto della pelle dove eseguire il picking, ovvero dove prendere la pelle a livello della radice del pelo con le unghie dell'indice e del pollice e tirare per rimuovere parassiti o uova di parassiti e ciò che è rimasto incastrato nel pelo. Oltre il noto ruolo igenico, il grooming sembra avere anche una importante funzione sociale affiliativa. Come la carezza nella società umana, cosi il grooming tra i primati non umani è considerato un comportamento. Secondo l'ipotesi di Dunbar l'attivazione delle C-LTMRs avverrebbe durante lo sweeping e questo porta a supporre che lo sweeping, come la carezza umana, costituisca una componente affiliativa del grooming, determinando quindi a contribuire alla sua codifica come comportamento sociale. Fino ad ora non vi è però alcuna prova diretta a sostegno di questa ipotesi. In particolare, 1) la velocità cui viene eseguito lo sweeping è compatibile con la velocità di attivazione delle fibre CT nell'uomo e quindi con la velocità tipica della carezza piacevole di carattere sociale affiliativo (1-10 cm/sec)?; 2) lo sweeping induce la stessa modulazione del sistema nervoso autonomo in direzione della modulazione del sistema vagale, come il tocco piacevole nell'uomo, attraverso l'attivazione delle fibre CT?; 3) lo sweeping modula la corteccia insulare, cosi come il tocco piacevole viene codificato come affiliativo nell'uomo mediante le proiezioni delle fibre CT a livello dell'insula posteriore? Lo scopo del presente lavoro è quella di testare l'ipotesi di Dunbar sopra citata, cercando quindi di rispondere alle suddette domande. Le risposte potrebbero consentire di ipotizzare la somiglianza tra lo sweeping, caratteristico del comportamento affiliativo di grooming tra i primati non umani e la carezza. In particolare, abbiamo eseguito 4 studi pilota. Nello Studio 1 abbiamo valutato la velocità con cui viene eseguito lo sweeping tra scimmie Rhesus, mediante una analisi cinematica di video registrati tra un gruppo di scimmie Rhesus. Negli Studi 2 e 3 abbiamo valutato gli effetti sul sistema nervoso autonomo dello sweeping eseguito dallo sperimentatore su una scimmia Rhesus di sesso maschile in una tipica situazione sperimentale. La stimolazione tattile è stata eseguita a diverse velocità, in accordo con i risultati dello Studio 1 e degli studi umani che hanno dimostrato la velocità ottimale e non ottimale per l'attivazione delle C-LTMRs. In particolare, nello Studio 2 abbiamo misurato la frequenza cardiaca e la variabilità di questa, come indice della modulatione vagale, mentre nello Studio 3 abbiamo valutato gli effetti dello sweeping sul sistema nervoso autonomo in termini di variazioni di temperatura del corpo, nello specifico a livello del muso della scimmia. Infine, nello Studio 4 abbiamo studiato il ruolo della corteccia somatosensoriale secondaria e insulare nella codifica dello sweeping. A questo scopo abbiamo eseguito registrazioni di singoli neuroni mentre la medesima scimmia soggetto sperimentale dello Studio 2 e 3, riceveva lo sweeping a due velocità, una ottimale per l'attivazione delle C-LTMRs secondo gli studi umani e i risultati dei tre studi sopra citati, ed una non ottimale. I dati preliminari ottenuti, dimostrano che 1) (Studio 1) lo sweeping tra scimmie Rhesus viene eseguito con una velocità media di 9.31 cm/sec, all'interno dell'intervallo di attivazione delle fibre CT nell'uomo; 2) (Studio 2) lo sweeping eseguito dallo sperimentatore sulla schiena di una scimmia Rhesus di sesso maschile in una situazione sperimentale determina una diminuzione della frequenza cardiaca e l'aumento della variabilità della frequenza cardiaca se eseguito alla velocità di 5 e 10 cm/sec. Al contrario, lo sweeping eseguito ad una velocità minore di 1 cm/sec o maggiore di 10 cm/sec, determina l'aumento della frequenza cardiaca e la diminuzione della variabilità di questa, quindi il decremento dell'attivazione del sistema nervoso parasimpatico; 3) (Studio 3) lo sweeping eseguito dallo sperimentatore sulla schiena di una scimmia Rhesus di sesso maschile in una situazione sperimentale determina l'aumento della temperatura corporea a livello del muso della scimmia se eseguito alla velocità di 5-10 cm/sec. Al contrario, lo sweeping eseguito ad una velocità minore di 5 cm/sec o maggiore di 10 cm/sec, determina la diminuzione della temperatura del muso; 4) (Studio 4) la corteccia somatosensoriale secondaria e la corteccia insulare posteriore presentano neuroni selettivamente modulati durante lo sweeping eseguito ad una velocità di 5-13 cm/sec ma non neuroni selettivi per la codifica della velocità dello sweeping minore di 5 cm/sec. Questi risultati supportano l'ipotesi di Dunbar relativa al coinvolgimento delle fibre CT durante lo sweeping. Infatti i dati mettono in luce che lo sweeping viene eseguito con una velocità (9.31 cm/sec), simile a quella di attivazione delle fibre CT nell'uomo (1-10 cm/sec), determina gli stessi effetti fisiologici positivi in termini di frequenza cardiaca (diminuzione) e variabilità della frequenza cardiaca (incremento) e la modulazione delle medesime aree a livello del sistema nervoso centrale (in particolare la corteccia insulare). Inoltre, abbiamo dimostrato per la prima volta che suddetta stimolazione tattile determina l'aumento della temperatura del muso della scimmia. Il presente studio rappresenta la prima prova indiretta dell'ipotesi relativa alla modulazione del sistema delle fibre C-LTMRs durante lo sweeping e quindi della codifica della stimolazione tattile piacevole affiliativa a livello del sistema nervoso centrale ed autonomo, nei primati non umani. I dati preliminari qui presentati evidenziano la somiglianza tra il sistema delle fibre CT dell'uomo e del sistema C-LTMRs nei primati non umano, riguardanti il Social Touch. Nonostante ciò abbiamo riscontrato alcune discrepanze tra i risultati da noi ottenuti e quelli invece ottenuti dagli studi umani. La velocità media dello sweeping è di 9.31 cm / sec, rasente il limite superiore dell’intervallo di velocità che attiva le fibre CT nell'uomo. Inoltre, gli effetti autonomici positivi, in termini di battito cardiaco, variabilità della frequenza cardiaca e temperatura a livello del muso, sono stati evidenziati durante lo sweeping eseguito con una velocità di 5 e 10 cm/sec, quindi al limite superiore dell’intervallo ottimale che attiva le fibre CT nell’uomo. Al contrario, lo sweeping eseguito con una velocità inferiore a 5 cm/sec e superiore a 10 cm/sec determina effetti fisiologici negativo. Infine, la corteccia insula sembra essere selettivamente modulata dallo stimolazione eseguita alla velocità di 5-13 cm/sec, ma non 1-5 cm/sec. Quindi, gli studi sul sistema delle fibre CT nell’uomo hanno dimostrato che la velocità ottimale è 1-10 cm/sec, mentre dai nostri risultati la velocità ottimale sembra essere 5-13 cm / sec. Quindi, nonostante l'omologia tra il sistema delle fibre CT nell'umano deputato alla codifica del tocco piacevole affiliativo ed il sistema delle fibre C-LTMRs nei primati non umani, ulteriori studi saranno necessari per definire con maggiore precisione la velocità ottimale di attivazione delle fibre C-LTMR e per dimostrare direttamente la loro attivazione durante lo sweeping, mediante la misurazione diretta della loro modulazione. Studi in questa direzione potranno confermare l'omologia tra lo sweeping in qualità di tocco affiliativo piacevole tra i primati non umani e la carezza tra gli uomini. Infine, il presente studio potrebbe essere un importante punto di partenza per esplorare il meccanismo evolutivo dietro la trasformazione dello sweeping tra primati non umani, azione utilitaria eseguita durante il grooming, a carezza, gesto puramente affiliativo tra gli uomini.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Background e scopi dello studio. Il carcinoma renale rappresenta circa il 3% delle neoplasie e la sua incidenza è in aumento nel mondo. Il principale approccio terapeutico alla malattia in stadio precoce è rappresentato dalla chirurgia (nefrectomia parziale o radicale), sebbene circa il 30-40% dei pazienti vada incontro a recidiva di malattia dopo tale trattamento. La probabilità di recidivare può essere stimata per mezzo di alcuni noti modelli prognostici sviluppati integrando sia parametri clinici che anatomo-patologici. Il limite principale all’impiego nella pratica clinica di questi modelli è legata alla loro complessità di calcolo che li rende di difficile fruizione. Inoltre la stratificazione prognostica dei pazienti in questo ambito ha un ruolo rilevante nella pianificazione ed interpretazione dei risultati degli studi di terapia adiuvante dopo il trattamento chirurgico del carcinoma renale in stadio iniziale. Da un' analisi non pre-pianificata condotta nell’ambito di uno studio prospettico e randomizzato multicentrico italiano di recente pubblicazione, è stato sviluppato un nuovo modello predittivo e prognostico (“score”) che utilizza quattro semplici parametri: l’età del paziente, il grading istologico, lo stadio patologico del tumore (pT) e della componente linfonodale (pN). Lo scopo del presente studio era quello di validare esternamente tale score. Pazienti e Metodi. La validazione è stata condotta su due coorti retrospettive italiane (141 e 246 pazienti) e su una prospettica americana (1943 pazienti). Lo score testato prevedeva il confronto tra due gruppi di pazienti, uno a prognosi favorevole (pazienti con almeno due parametri positivi tra i seguenti: età < 60 anni, pT1-T3a, pN0, grading 1-2) e uno a prognosi sfavorevole (pazienti con meno di due fattori positivi). La statistica descrittiva è stata utilizzata per mostrare la distribuzione dei diversi parametri. Le analisi di sopravvivenza [recurrence free survival (RFS) e overall survival (OS)] sono state eseguite il metodo di Kaplan-Meier e le comparazioni tra i vari gruppi di pazienti sono state condotte utilizzando il Mantel-Haenszel log-rank test e il modello di regressione di Cox. Il metodo di Greenwood è stato utilizzato per stimare la varianza e la costruzione degli intervalli di confidenza al 95% (95% CI), la “C-statistic” è stata utilizzata per descrivere l’ accuratezza dello score. Risultati. I risultati della validazione dello score condotta sulle due casistiche retrospettive italiane, seppur non mostrando una differenza statisticamente significativa tra i due gruppi di pazienti (gruppo favorevole versus sfavorevole), sono stati ritenuti incoraggianti e meritevoli di ulteriore validazione sulla casistica prospettica americana. Lo score ha dimostrato di performare bene sia nel determinare la prognosi in termini di RFS [hazard ratio (HR) 1.85, 95% CI 1.57-2.17, p < 0.001] che di OS [HR 2.58, 95% CI 1.98-3.35, p < 0.001]. Inoltre in questa casistica lo score ha realizzato risultati sovrapponibili a quelli dello University of California Los Angeles Integrated Staging System. Conclusioni. Questo nuovo e semplice score ha dimostrato la sua validità in altre casistiche, sia retrospettive che prospettiche, in termini di impatto prognostico su RFS e OS. Ulteriori validazioni su casistiche internazionali sono in corso per confermare i risultati qui presentati e per testare l’eventuale ruolo predittivo di questo nuovo score.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro vengono indagati i benefici dell’aumento della pressione d’iniezione dell’AdBlue nei sistemi SCR. Dopo aver esposto le ipotesi teoriche a supporto della tesi, si passa all’allestimento del veicolo dimostrativo impiegato per l’attività sperimentale. In questa fase viene illustrato tutto il processo di preparazione, che comprende: la messa a punto del circuito idraulico, la caratterizzazione degli iniettori impiegati, la strumentazione della linea di scarico, e il software INCA impiegato per il comando delle centraline. Dopodiché vengono descritti nel dettaglio i test, condotti con il veicolo sperimentale, sul banco a rulli. Attraverso le prove, eseguite su due differenti punti motore, si è potuto dimostrare l’effettivo aumento di efficienza di abbattimento degli NOx, da parte del sistema SCR, all’aumentare della pressione d’iniezione dell’AdBlue. Inoltre si hanno effetti positivi anche in merito al fenomeno dell’ammonia slip, che viene sensibilmente ridotto ai livelli di pressione più alti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro di tesi viene affrontato il tema del Miglioramento Continuo all'interno di un caso di studio reale. Viene posta come obiettivo la verifica delle potenzialità dei principi del Miglioramento Continuo nel settore di confezionamento e trasformazione di prodotti liquidi alimentari. Il progetto riguarda il reparto di consulenza della multinazionale svedese Tetra Pak, che offre l'implementazione del sistema ad un'azienda cliente sita nel Regno Unito. L'implementazione del progetto si sviluppa da un primo accurato studio della situazione aziendale, a seguito del quale sono state riscontrate necessità di cambiamento in aree specifiche. Successivamente a questa prima fase di studio segue una seconda fase di pianificazione e sviluppo della strategia di miglioramento che ha visto coinvolti il personale Tetra Pak e il personale dell'azienda locale. Il processo di miglioramento viene applicato inizialmente su una cella pilota, selezionata all'interno delle linee produttive dell'azienda cliente, per poi essere espanso a tutto il reparto produttivo qualora il risultato misurato confermi le aspettative.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente Tesi ha per oggetto lo sviluppo e la validazione di nuovi criteri per la verifica a fatica multiassiale di componenti strutturali metallici . In particolare, i nuovi criteri formulati risultano applicabili a componenti metallici, soggetti ad un’ampia gamma di configurazioni di carico: carichi multiassiali variabili nel tempo, in modo ciclico e random, per alto e basso/medio numero di cicli di carico. Tali criteri costituiscono un utile strumento nell’ambito della valutazione della resistenza/vita a fatica di elementi strutturali metallici, essendo di semplice implementazione, e richiedendo tempi di calcolo piuttosto modesti. Nel primo Capitolo vengono presentate le problematiche relative alla fatica multiassiale, introducendo alcuni aspetti teorici utili a descrivere il meccanismo di danneggiamento a fatica (propagazione della fessura e frattura finale) di componenti strutturali metallici soggetti a carichi variabili nel tempo. Vengono poi presentati i diversi approcci disponibili in letteratura per la verifica a fatica multiassiale di tali componenti, con particolare attenzione all'approccio del piano critico. Infine, vengono definite le grandezze ingegneristiche correlate al piano critico, utilizzate nella progettazione a fatica in presenza di carichi multiassiali ciclici per alto e basso/medio numero di cicli di carico. Il secondo Capitolo è dedicato allo sviluppo di un nuovo criterio per la valutazione della resistenza a fatica di elementi strutturali metallici soggetti a carichi multiassiali ciclici e alto numero di cicli. Il criterio risulta basato sull'approccio del piano critico ed è formulato in termini di tensioni. Lo sviluppo del criterio viene affrontato intervenendo in modo significativo su una precedente formulazione proposta da Carpinteri e collaboratori nel 2011. In particolare, il primo intervento riguarda la determinazione della giacitura del piano critico: nuove espressioni dell'angolo che lega la giacitura del piano critico a quella del piano di frattura vengono implementate nell'algoritmo del criterio. Il secondo intervento è relativo alla definizione dell'ampiezza della tensione tangenziale e un nuovo metodo, noto come Prismatic Hull (PH) method (di Araújo e collaboratori), viene implementato nell'algoritmo. L'affidabilità del criterio viene poi verificata impiegando numerosi dati di prove sperimentali disponibili in letteratura. Nel terzo Capitolo viene proposto un criterio di nuova formulazione per la valutazione della vita a fatica di elementi strutturali metallici soggetti a carichi multiassiali ciclici e basso/medio numero di cicli. Il criterio risulta basato sull'approccio del piano critico, ed è formulato in termini di deformazioni. In particolare, la formulazione proposta trae spunto, come impostazione generale, dal criterio di fatica multiassiale in regime di alto numero di cicli discusso nel secondo Capitolo. Poiché in presenza di deformazioni plastiche significative (come quelle caratterizzanti la fatica per basso/medio numero di cicli di carico) è necessario conoscere il valore del coefficiente efficace di Poisson del materiale, vengono impiegate tre differenti strategie. In particolare, tale coefficiente viene calcolato sia per via analitica, che per via numerica, che impiegando un valore costante frequentemente adottato in letteratura. Successivamente, per validarne l'affidabilità vengono impiegati numerosi dati di prove sperimentali disponibili in letteratura; i risultati numerici sono ottenuti al variare del valore del coefficiente efficace di Poisson. Inoltre, al fine di considerare i significativi gradienti tensionali che si verificano in presenza di discontinuità geometriche, come gli intagli, il criterio viene anche esteso al caso dei componenti strutturali intagliati. Il criterio, riformulato implementando il concetto del volume di controllo proposto da Lazzarin e collaboratori, viene utilizzato per stimare la vita a fatica di provini con un severo intaglio a V, realizzati in lega di titanio grado 5. Il quarto Capitolo è rivolto allo sviluppo di un nuovo criterio per la valutazione del danno a fatica di elementi strutturali metallici soggetti a carichi multiassiali random e alto numero di cicli. Il criterio risulta basato sull'approccio del piano critico ed è formulato nel dominio della frequenza. Lo sviluppo del criterio viene affrontato intervenendo in modo significativo su una precedente formulazione proposta da Carpinteri e collaboratori nel 2014. In particolare, l’intervento riguarda la determinazione della giacitura del piano critico, e nuove espressioni dell'angolo che lega la giacitura del piano critico con quella del piano di frattura vengono implementate nell'algoritmo del criterio. Infine, l’affidabilità del criterio viene verificata impiegando numerosi dati di prove sperimentali disponibili in letteratura.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi si basa su una raccolta e una successiva elaborazione di dati effettuata su Crowdcube, la piattaforma di crowdfunding di investimento leader a livello mondiale, con lo scopo di analizzare il fenomeno dell’equity-crowdfunding in tutte le sue diverse caratteristiche. Attraverso gli strumenti grafici e computazionali, si studierà un campione di circa 100 progetti, con l’obiettivo finale di individuare e studiare “i fattori critici di successo”, derivanti dalle correlazioni tra caratteristiche dei progetti presentati e successo ottenuto da questi ultimi nell’ottica di finanziamenti ricevuti. L’importanza di questo studio è data dalla necessità dei progettisti che presentano le campagne di crowdfunding di capire come poter rassicurare e convincere gli investitori, in modo da avere una raccolta fondi di successo. L’analisi sarà arricchita da tabelle, istogrammi e grafici, con lo scopo di supportare l’esplicazione dei vari concetti e delineare eventuali trend.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il grafene, allotropo del carbonio costituito da un reticolo bidimensionale, è uno dei nanomateriali più promettenti allo stato attuale della ricerca nei campi della Fisica e della Chimica, ma anche dell'Ingegneria e della Biologia. Isolato e caratterizzato per la prima volta nel 2004 dai ricercatori russi Andre Geim e Konstantin Novoselov presso l'Università di Manchester, ha aperto la via sia a studi teorici per comprendere con gli strumenti della Meccanica Quantistica gli effetti di confinamento in due dimensioni (2D), sia ad un vastissimo panorama di ricerca applicativa che ha l'obiettivo di sfruttare al meglio le straordinarie proprietà meccaniche, elettriche, termiche ed ottiche mostrate da questo materiale. Nella preparazione di questa tesi ho personalmente seguito presso l'Istituto per la Microelettronica e i Microsistemi (IMM) del CNR di Bologna la sintesi mediante Deposizione Chimica da Fase Vapore (CVD) di grafene "tridimensionale" (3D) o "poroso" (denominato anche "schiuma di grafene", in inglese "graphene foam"), ossia depositato su una schiuma metallica dalla struttura non planare. In particolare l'obiettivo del lavoro è stato quello di misurare le proprietà di conduttività elettrica dei campioni sintetizzati e di confrontarle con i risultati dei modelli che le descrivono teoricamente per il grafene planare. Dopo un primo capitolo in cui descriverò la struttura cristallina, i livelli energetici e la conduzione dei portatori di carica nel reticolo ideale di grafene 2D (utilizzando la teoria delle bande e l'approssimazione "tight-binding"), illustrerò le differenti tecniche di sintesi, in particolare la CVD per la produzione di grafene poroso che ho seguito in laboratorio (cap.2). Infine, nel capitolo 3, presenterò la teoria di van der Pauw su cui è basato il procedimento per eseguire misure elettriche su film sottili, riporterò i risultati di conduttività delle schiume e farò alcuni confronti con le previsioni della teoria.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi analizza la problematica del monitoraggio ambientale a basso costo, cercando di approfondirne le caratteristiche e studiando le situazioni in cui questo vi si adatta bene. Lo studio ha permesso di realizzare due tipologie di stazioni di raccolta dati, una dedicata alla misurazione delle polveri sottili, e una dedicata alla misurazione dell’acidità delle piogge. Entrambe le stazioni condividono la logica di funzionamento, quindi il “core” rimane lo stesso pur lavorando con dati estremamente diversi, mentre si distinguono per i due sensori utilizzati. In fase di test i sensori si sono dimostrati sufficientemente precisi lasciando ben sperare per la realizzazione di applicazioni in contesti reali simili a quelli considerati durante l’analisi. Le stazioni sono in grado di fornire dati geo-localizzati consultabili attraverso un portale web, è possibile visualizzare ogni stazione su una mappa ricevendo aggiornamenti sulle ultime misurazioni, inoltre si possono modellare i dati e visualizzarli su una serie di grafici. Una delle caratteristiche fondamentali che ha guidato tutta la progettazione è stata l’estendibilità del modello, la logica di funzionamento della stazione può essere facilmente implementata su tecnologie hardware e software diverse.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di questa tesi è focalizzato sulla valutazione della sensibilità delle microonde rispetto a differenti idrometeore per le frequenze a 89 GHz e 150 GHz e nella banda di assorbimento del vapor d'acqua a 183.31 GHz. Il metodo di indagine consiste nell'utilizzo del modello di trasferimento radiativo RTTOV (Eyre, 1991) per simulare radianze dei canali dei sensori satellitari nelle microonde Advanced Microwave Sounding Unit-B (AMSU-B) e Microwave Humidity Sounder (MHS). Le simulazioni basate sul modello RTTOV si sono focalizzate su tre dataset indipendenti, forniti da ECMWF. Il primo passo tiene conto di una selezione di categorie dei profili atmosferici basato su una distinzione della fase delle idrometeore, LWP, IWP e WVP, con sottoclassi terra e oceano. La distinzione in diverse categorie permette di valutare la sensibilità di ciascuna frequenza utilizzata nelle simulazioni al variare del contenuto di acqua e ghiaccio. Un secondo approccio è usato per valutare la risposta di ciascuna frequenza nei casi di nevicate sulla terraferma. Questa indagine ha permesso lo sviluppo di un nuovo algoritmo prototipale per la stima dell'intensità di precipitazione nevosa basato su una serie di test a soglia e una equazione di combinazione lineare multipla che sfrutta una combinazione dei canali più sensibili alla snowfall: 150, 186 e 190 GHz. Una prima verifica su casi di studio pre-selezionati di snowstorm sembra fornire risultati promettenti. Infine è stato realizzato uno studio di sensibilità dell’algoritmo 183-WSL (Laviola and Levizzani, 2011) utilizzando le simulazioni di RTTOV con precipitazione/non precipitazione come predittori discreti e con le intensità di precipitazione come predittori continui. Le simulazioni RTTOV rivelano una sovrastima delle radianze in presenza di profili di pioggia e ciò potrebbe essere dovuto alle approssimazioni e parametrizzazioni adottate nel modello RTTOV-SCATT usato per la risoluzione dello scattering in presenza di precipitazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Progettazione di dettaglio di un banco di prova per testare sistemi ADCS per CubeSat: Alma Test-Bed. Ci si è concentrati sul progetto di un primo nucleo di AlmaTB in grado di testare il controllo di tipo magnetico. Fanno parte di AlmaTB una gabbia di Helmholtz, un air-bearing system, un CubeSat di test, un metrology system. La gabbia di Helmholtz è un apparato costituito da tre coppie di bobine, una per ogni asse spaziale, che serve ad annullare il campo magnetico locale e simulare quello che si troverà in orbita attorno alla Terra. Un software ricava i dati del campo magnetico terrestre da modello IGRF a determinate coordinate e quota e fornisce agli alimentatori del set di bobine l'indicazione della corrente da distribuire. L'air-bearing system è un cuscinetto d'aria generato da un compressore che serve a ricreare le caratteristiche condizioni dell'ambiente spaziale di microgravità e attrito quasi-zero. Il CubeSat di test sarà montato su questo sistema. Il CubeSat di test, nella prima versione di AlmaTB, contiene i sensori e gli attuatori di tipo magnetico per determinare e controllare l'assetto di un nanosatellite. Il magnetometro presente all'interno è utilizzato anche come controllo del funzionamento della gabbia di Helmholtz. Il metrology system traccia i movimenti e l'inclinazione del CubeSat. Questo fornisce il riferimento di assetto vero, in modo da capire se il sistema ADCS lavora correttamente. Una volta che il banco di prova sarà completato e operativo sarà possibile testare algoritmi di determinazione e controllo di assetto che utilizzano diversi dispositivi tra sensori e attuatori disponibili nel mock-up. Su una workstation sono installati i software di controllo ed elaborazione dati. Si è scelto di procedere con un approccio di tipo "chiavi in mano", cioè scegliendo, quando disponibile, sistemi già completi e disponibili sul mercato. La prima versione di AlmaTB nasce dall'importante, vasto lavoro di matching tra i diversi apparati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro di tesi si presenta il primo studio multi-scala e multi-frequenza focalizzato sul getto della radiogalassia IC1531 (z=0.026) con i satelliti Chandra, XMM-Newton e Fermi con l’obiettivo di tracciarne l’emissione alle alte energie; definire i processi radiativi responsabili dell’emissione osservata e stimare i principali parametri fisici del getto; stimare l’energetica del getto alle diverse scale. La sorgente è stata selezionata per la presenza di un getto esteso (≈5’’) osservato in radio e ai raggi X, inoltre, era riportata come possibile controparte della sorgente gamma 3FGLJ0009.6-3211 presente nel terzo catalogo Fermi (3FGL). La presenza di emissione ai raggi γ, confermata dal nostro studio, è importante per la modellizzazione della SED della regione nucleare. L’emissione X del nucleo è dominata da una componente ben riprodotta da una legge di potenza con indice spettrale Γ=2.2. L’analisi dell’emissione in banda gamma ha evidenziato una variabilità su scale di 5 giorni, dalla quale è stato possibile stimare le dimensioni delle regione emittente. Inoltre viene presentato lo studio della distribuzione spettrale dell’energia della regione nucleare di IC 1531 dalla banda radio ai raggi γ. I modelli ci permettono di determinare la natura dell’emissione gamma e stimare la potenza cinetica del getto a scale del su-pc. Gli osservabili sono stati utilizzati per ottenere le stime sui parametri del modello. La modellizzazione così ottenuta ha permesso di stimare i parametri fisici del getto e la potenza trasportata del getto a scale del sub-pc. Le stime a 151MHz suggerisco che il getto abbia basse velocita' (Γ≤7) e angolo di inclinazione rispetto alla linea di vista 10°<ϑ<20°; nel complesso, il trasporto di energia da parte del getto risulta efficiente. L’origine dell’emissione X del getto a grandi scale è consistente con un’emissione di sincrotrone, che conferma la classificazione di IC1531 come sorgente di bassa potenza MAGN.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'attenzione è stata posta su tre fenomeni fondamentali di scattering: Thomson, Compton e Compton inverso. Sono state sottolineate alcune ed eventuali applicazioni astrofisiche di questi e valutate le implicazioni o generalizzazioni che da tali fenomeni possono derivare: Synchrotron Self-Compton, Comptonizzazione ed effetto Sunyaev-Zeldovich termico. Infine è stato preso un caso astrofisico come applicazione di questi fenomeni: Sagittarius A*, una fonte radio proveniente dal centro della nostra galassia, molto studiata negli anni, citando un articolo pubblicato su una rivista scientifica nel 2012.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi si discutono inizialmente i concetti chiave di agente e sistema multi-agente e si descrivono in ogni dettaglio il linguaggio di programmazione AgentSpeak(L) e la piattaforma Jason, fornendo le basi per poter programmare con il paradigma AOP. Lo scopo centrale di questa tesi è quello di estendere il modello di pianificazione dell’interprete di AgentSpeak(L), considerato come caso specifico, con un approccio che può essere integrato in qualsiasi linguaggio di programmazione ad agenti. Si espone un’evoluzione di AgentSpeak(L) in AgentSpeak(PL), ossia la creazione ed esecuzione di piani automatici in caso di fallimento attraverso l'uso di un algoritmo di planning state-space. L'approccio integrativo modifica il Ciclo di Reasoning di Jason proponendo in fase di pianificazione automatica un riuso di piani già esistenti, atto a favorire la riduzione di tempi e costi nel long-term in un sistema multi-agente. Nel primo capitolo si discute della nozione di agente e delle sue caratteristiche principali mentre nel secondo capitolo come avviene la vera e propria programmazione con AgentSpeak(L). Avendo approfondito questi argomenti base, il terzo capitolo è incentrato sull’interprete Jason e il quarto su una migliore estensione dell'interprete, in grado di superare i limiti migliorando le performance nel tempo. Si delineano infine alcune considerazioni e ringraziamenti nel quinto e ultimo capitolo. Viene proposta con scrittura di carattere divulgativo e non ambiguo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La teoria secondo la quale vi sia una forte interconnessione tra cambiamento climatico ed emissioni di gas serra è via via più radicata all’interno della comunità scientifica internazionale. La certezza che la richiesta di energia a livello mondiale non possa che aumentare, unita con le preoccupazioni causate dal cambiamento climatico ha indirizzato parte dei cosiddetti paesi “sviluppati” verso politiche volte all’efficienza energetica e alla produzione di energia attraverso fonti rinnovabili. In seguito a queste decisioni il sistema elettrico nazionale si trova in una fase di rapido cambiamento; in particolare le maggiori problematiche, legate alla rete di distribuzione, sono originate da un fenomeno di diffusione su larga scala della generazione distribuita. In questo contesto, nel presente lavoro di tesi, ci si serve del software openDSS per osservare gli ammodernamenti che la rete ha subito e subirà in futuro. In primo luogo viene trattata una rete, prettamente passiva, in bassa tensione che vuole essere lo specchio di ciò che era la rete prima della diffusione della generazione distribuita. Vengono evidenziati in particolare i profili delle tensioni lungo la rete di distribuzione e le potenze circolanti in rete. Viene successivamente studiata la prima rete con l’aggiunta di generatori, volti a simulare il comportamento di pannelli fotovoltaici, evidenziando alcune le problematiche causate dalla GD su una rete non adatta a sopportarla. Infine viene mostrato come la presenza di alcuni accumulatori (modellizzati per simulare il comportamento di veicoli elettrici) possa migliorare le condizioni della rete. L’obiettivo non è quello di condurre delle simulazioni di reti realmente esistenti e di studiare diversi modelli di sviluppo per esse, bensì quello di creare una rete di prova all’interno del software al fine di analizzare qualitativamente come la rete sia mutata e come possibili scenari potrebbero modificarla in futuro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi si propone di illustrare il lavoro da me svolto presso l’azienda Ocem Airfield Technology all’interno del magazzino componentistica mirato alla riorganizzazione del supermarket delle linee di assemblaggio nell’ottica della minimizzazione dei tempi di prelievo. La continua ricerca di flessibilità sulla base delle esigenza della clientela ha un drastico effetto sul magazzino e sulla sua gestione. Il magazzino rappresenta un elemento estremamente oneroso nel bilancio aziendale e contribuisce per il 20% ai costi interni dell’impresa. Hanno un ruolo cruciale nel funzionamento aziendale: i magazzini sono il luogo di attesa per i prodotti dal punto di origine a quello di consumo, garantiscono l’immagazzinamento e lo stoccaggio della merce ed infine sono un driver fondamentale per ridurre l’incertezza. Tra le attività più costose si colloca il prelievo frazionato della merce o order picking, responsabile del 55% dei costi operativi logistici. Nell'ambito Ocem è stato implementato un progetto per la riduzione dei tempi di prelievo ispirandosi a modelli nati in letteratura. Il progetto inizialmente è stato testato su una linea pilota a bassi volumi per monitorare i possibili vantaggi. Una volta confermata la riduzione effettiva dei tempi di prelievo, il progetto è stato replicato con le opportune modifiche sulle restanti linee di assemblaggio raggiungendo incrementi di efficienza significativi. Il parametro adottato come performance index è stata la riduzione percentuale del tempo di prelievo dall’as-is al to-be.