932 resultados para Incollaggi, Single-lap joint, Effetto di bordo, CFRP, Analisi numerica, FEM


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Gli stress abiotici determinando modificazioni a livello fisiologico, biochimico e molecolare delle piante, costituiscono una delle principali limitazioni per la produzione agricola mondiale. Nel 2007 la FAO ha stimato come solamente il 3,5% della superficie mondiale non sia sottoposta a stress abiotici. Il modello agro-industriale degli ultimi cinquant'anni, oltre ad avere contribuito allo sviluppo economico dell'Europa, è stato anche causa di inquinamento di acqua, aria e suolo, mediante uno sfruttamento indiscriminato delle risorse naturali. L'arsenico in particolare, naturalmente presente nell'ambiente e rilasciato dalle attività antropiche, desta particolare preoccupazione a causa dell'ampia distribuzione come contaminante ambientale e per gli effetti di fitotossicità provocati. In tale contesto, la diffusione di sistemi agricoli a basso impatto rappresenta una importante risorsa per rispondere all'emergenza del cambiamento climatico che negli anni a venire sottoporrà una superficie agricola sempre maggiore a stress di natura abiotica. Nello studio condotto è stato utilizzato uno stabile modello di crescita in vitro per valutare l'efficacia di preparati ultra diluiti (PUD), che non contenendo molecole chimiche di sintesi ben si adattano a sistemi agricoli sostenibili, su semi di frumento preventivamente sottoposti a stress sub-letale da arsenico. Sono state quindi condotte valutazioni sia a livello morfometrico (germinazione, lunghezza di germogli e radici) che molecolare (espressione genica valutata mediante analisi microarray, con validazione tramite Real-Time PCR) arricchendo la letteratura esistente di interessanti risultati. In particolare è stato osservato come lo stress da arsenico, determini una minore vigoria di coleptile e radici e a livello molecolare induca l'attivazione di pathways metabolici per proteggere e difendere le cellule vegetali dai danni derivanti dallo stress; mentre il PUD in esame (As 45x), nel sistema stressato ha indotto un recupero nella vigoria di germoglio e radici e livelli di espressione genica simili a quelli riscontrati nel controllo suggerendo un effetto "riequilibrante" del metabolismo vegetale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’aderenza tra barre fibrorinforzate e calcestruzzo è una chiave fondamentale per comprendere al meglio l’azione composita di strutture rinforzate o armate in FRP. Deve essere mobilitata una certa aderenza tra la barra e calcestruzzo per trasferire gli sforzi da un corpo all’altro. Poiché il materiale composito è anisotropo, in direzione longitudinale le proprietà meccaniche sono governate da quelle delle fibre, mentre in direzione trasversale dalla resina. La matrice presenta in genere resistenze più basse di quella a compressione del calcestruzzo, cosicché il meccanismo di aderenza risulta diverso da quello sviluppato dalle tradizionali barre in acciaio. In questa tesi viene sviluppata appunto un’indagine sperimentale sul fenomeno dell’aderenza di barre in acciaio e barre in CFRP (fibra di carbonio) nel calcestruzzo, cercando di capire come cambia il fenomeno al variare dei parametri da cui dipende principalmente l’aderenza, come ad esempio la resistenza caratteristica a compressione del calcestruzzo, il diametro e la deformazione superficiale della barra e la posizione di questa nel provino di calcestruzzo. Sono state quindi realizzate delle prove di pull-out, ovvero delle prove di estrazione di barre da provini di calcestruzzo, per determinare le tensioni tangenziali d’aderenza in funzione dello scorrimento locale della barra (local bond-slip). Infine sono stati calibrati, sui risultati delle prove sperimentali, i tre modelli analitici più noti in letteratura che descrivono il fenomeno dell’aderenza delle barre in FRP nel calcestruzzo, ovvero quello di Malvar (1994), il CMR Model (1995) e il Modified BPE Model (1996).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Obiettivo del lavoro è quello di legare tra di loro due aspetti che storicamente sono sempre stati scollegati. Il primo è il lungo dibattito sul tema “oltre il PIL”, che prosegue ininterrottamente da circa mezzo secolo. Il secondo riguarda l’utilizzo dei sistemi di misurazione e valutazione della performance nel settore pubblico italiano. Si illustra l’evoluzione del dibattito sul PIL facendo un excursus storico del pensiero critico che si è sviluppato nel corso di circa cinquanta anni analizzando le ragioni assunte dagli studiosi per confutare l’utilizzo del PIL quale misura universale del benessere. Cogliendo questa suggestione l’Istat, in collaborazione con il CNEL, ha avviato un progetto per individuare nuovi indicatori da affiancare al PIL, in grado di misurare il livello non solo della crescita economica, ma anche del benessere sociale e sostenibile, con l’analisi degli indicatori riferiti a 12 domini di benessere individuati. Al progetto Istat-CNEL si è affiancato il progetto UrBES, promosso dall’Istat e dal Coordinamento dei sindaci metropolitani dell’ANCI, che hanno costituito una rete di città metropolitane per sperimentare la misurazione e il confronto sulla base di indicatori di benessere urbano equo e sostenibile, facendo proprio un progetto del Comune di Bologna e di Laboratorio Urbano (Centro di documentazione, ricerca e proposta sulle città), che ha sottoposto a differenti target un questionario on line, i cui risultati, con riferimento alle risposte fornite alle domande aperte, sono stati elaborati attraverso l’utilizzo di Taltac, un software per l’analisi dei testi, al fine di individuare i “profili” dei rispondenti, associando i risultati dell’elaborazione alle variabili strutturali del questionario. Nell’ultima parte i servizi e progetti erogati dal comune di Bologna sono stati associati alle dimensioni UrBES, per valutare l’impatto delle politiche pubbliche sulla qualità della vita e sul benessere dei cittadini, indicando le criticità legate alla mancanza di dati adeguati.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Caratteristica comune ai regimi di consolidamento previsti dai diversi ordinamenti, è quella di consentire la compensazione tra utili e perdite di società residenti, e, di negare, o rendere particolarmente difficoltosa, la stessa compensazione, quando le perdite sono maturate da società non residenti. La non considerazione delle perdite comporta una tassazione al lordo del gruppo multinazionale, per mezzo della quale, non si colpisce il reddito effettivo dei soggetti che vi appartengono. L’effetto immediato è quello di disincentivare i gruppi a travalicare i confini nazionali. Ciò impedisce il funzionamento del Mercato unico, a scapito della libertà di stabilimento prevista dagli artt. 49-54 del TFUE. Le previsioni ivi contenute sono infatti dirette, oltre ad assicurare a società straniere il beneficio della disciplina dello Stato membro ospitante, a proibire altresì allo Stato di origine di ostacolare lo stabilimento in un altro Stato membro dei propri cittadini o delle società costituite conformemente alla propria legislazione. Gli Stati membri giustificano la discriminazione tra società residenti e non residenti alla luce della riserva di competenza tributaria ad essi riconosciuta dall’ordinamento europeo in materia delle imposte dirette, dunque, in base all’equilibrata ripartizione del potere impositivo. In assenza di qualsiasi riferimento normativo, va ascritto alla Corte di Giustizia il ruolo di interprete del diritto europeo. La Suprema Corte, con una serie di importanti pronunce, ha infatti sindacato la compatibilità con il diritto comunitario dei vari regimi interni che negano la compensazione transfrontaliera delle perdite. Nel verificare la compatibilità con il diritto comunitario di tali discipline, la Corte ha tentato di raggiungere un (difficile) equilibrio tra due interessi completamenti contrapposti: quello comunitario, riconducibile al rispetto della libertà di stabilimento, quello degli Stati membri, che rivendicano il diritto di esercitare il proprio potere impositivo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Magnetic Resonance Spectroscopy (MRS) is an advanced clinical and research application which guarantees a specific biochemical and metabolic characterization of tissues by the detection and quantification of key metabolites for diagnosis and disease staging. The "Associazione Italiana di Fisica Medica (AIFM)" has promoted the activity of the "Interconfronto di spettroscopia in RM" working group. The purpose of the study is to compare and analyze results obtained by perfoming MRS on scanners of different manufacturing in order to compile a robust protocol for spectroscopic examinations in clinical routines. This thesis takes part into this project by using the GE Signa HDxt 1.5 T at the Pavillion no. 11 of the S.Orsola-Malpighi hospital in Bologna. The spectral analyses have been performed with the jMRUI package, which includes a wide range of preprocessing and quantification algorithms for signal analysis in the time domain. After the quality assurance on the scanner with standard and innovative methods, both spectra with and without suppression of the water peak have been acquired on the GE test phantom. The comparison of the ratios of the metabolite amplitudes over Creatine computed by the workstation software, which works on the frequencies, and jMRUI shows good agreement, suggesting that quantifications in both domains may lead to consistent results. The characterization of an in-house phantom provided by the working group has achieved its goal of assessing the solution content and the metabolite concentrations with good accuracy. The goodness of the experimental procedure and data analysis has been demonstrated by the correct estimation of the T2 of water, the observed biexponential relaxation curve of Creatine and the correct TE value at which the modulation by J coupling causes the Lactate doublet to be inverted in the spectrum. The work of this thesis has demonstrated that it is possible to perform measurements and establish protocols for data analysis, based on the physical principles of NMR, which are able to provide robust values for the spectral parameters of clinical use.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nel lavoro si dimostrano il Teorema della Divergenza e il Teorema di Stokes e le sue generalizzazioni a una curva chiusa di ordine k e a una varietà M, n-dimensionale, orientata con bordo. Successivamente si espongono due applicazioni alla fisica: l'elettromagnetismo e la formula del rotore. Nel primo caso si mostra come applicando il Teorema alle leggi di Biot-Savarat e di Faraday si ottengono le equazioni di Maxwell; nel secondo invece si osserva come il rotore rappresenti la densità superficiale di circuitazione.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nella prima sezione di questo lavoro verranno esposti i ragionamenti fisici alla base della scrittura delle equazioni di London-London (1935), capaci di descrivere due importanti fenomeni riguardanti i materiali superconduttori quali la conduttività perfetta (resistenza nulla) e il diamagnetismo perfetto (Effetto Meissner). Verrà in essa infine brevemente descritto l'effetto della più generale conservazione del flusso magnetico nei superconduttori secondo il modello classico. Nella seconda sezione verrà esposto il ragionamento alla base della scrittura del Modello Quantistico Macroscopico, proposto da F.London nel 1948 per cercare di unificare la descrizione elettrodinamica classica della superconduttività con la meccanica quantistica, attraverso la scrittura di una funzione d'onda macroscopica capace di descrivere l'intero ensemble di portatori di carica superelettronici nel loro moto di conduzione.Esso permetterà di prevedere il fenomeno della quantizzazione del flusso magnetico intrappolato da una regione superconduttrice molteplicemente connessa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo scattering è un processo fisico che descrive le interazioni tra particelle e radiazione elettromagnetica. Esistono diversi tipi di scattering, dove la natura di questi processi dipende dall'energia della particella e della radiazione. Quando l'elettrone fermo subisce un urto elastico con un fotone di bassa energia si ha lo \emph{scattering Thomson}. In questo processo l'onda elettromagnetica accelera la particella; successivamente dopo l'urto l'onda viene diffusa con la stessa frequenza iniziale. Questo processo accade a basse energie poichè ad energie più alte prevale l'effetto dovuto allo \emph{scattering Compton}. In questo meccanismo un fotone interagisce con un elettrone cedendogli energia e in particolare si ha una variazione di frequenza per il fotone. Quando è l'elettrone a trasferire al fotone parte della sua energia si ha \emph{Inverse Compton}. Gli ultimi due processi in realtà sono situazioni limite di un caso più generale chiamato \emph{Comptonizzazione}. Considerando un plasma rarefatto di fotoni ed elettroni, la Comptonizzazione stabilisce come l'evoluzione dello spettro viene modificato a causa dell'interazione tra fotoni ed elettroni. Nel secondo capitolo di questo elaborato verrà esaminata l'emissione in banda X della radiazione elettromagnetica in seguito a fenomeni di accrescimento intorno a buchi neri; nello specifico si analizzerà l'emissione soft e hard per buchi neri galattici.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’avvento di Internet e delle innovazioni tecnologiche hanno determinato una rivoluzione nel panorama della comunicazione e dell’informazione soprattutto in quello pubblicitario. La pubblicità online (in inglese Advertising Online o Internet Advertising) è un fenomeno in continua crescita. Rispetto ai media tradizionali come la stampa e la televisione dove i contenuti sono trasmessi in modo generico e di massa, l’Advertising Online sfrutta la capacità del World Wide Web al fine di raggiungere una quantità notevole di persone permettendo di attuare campagne pubblicitarie verso un target mirato. In questo settore la facilità di misurare l'effetto nei confronti del pubblico permette alle aziende di investire in questo tipo di mercato rispetto a quello tradizionale poiché, in quest'ultimo l’assenza di strumenti di misurazione è basata su rilevanze teoriche. In riferimento a quanto citato, un’oggetto di studio e di analisi presentato in questa tesi riguarda la start-up TAGGALO un sistema ideato e sviluppato da un gruppo di ricercatori del CNR Puglia. Questa soluzione tecnologia è applicata nel campo pubblicitario del Digital out of Home e del Digital Signage dove la comunicazione del messaggio viene percepita dal potenziale cliente mentre è fuori casa mediante l’uso di schermi elettronici disposti nella maggior parte dei luoghi pubblici. Attraverso questa tecnologia è possibile rilevare il reale impatto della pubblicità online, rappresentando una soluzione efficace per misurare il reale ritorno per chi investe ovvero il ROI.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le tematiche relative alla compatibilità elettromagnetica (EMC) dei dispositivi elettronici (sia per il trasferimento dell'informazione che per trasmissione e conversione di potenza) sono di grande attualità a causa di molteplici fattori. Il primo è la larga diffusione di apparecchiature elettroniche e delle telecomunicazioni in svariati ambienti. Secondariamente tali dispositivi sono sempre più suscettibili al rumore per ragioni tecniche: -tensioni di alimentazione sempre più basse (alimentazione a batterie); -aumento della velocità dei dispositivi; -miniaturizzazione; -connettività wireless (spesso con diversi protocolli sullo stesso device). All'interno di questa tesi vengono trattate le interferenze elettromagnetiche (EMI) con riferimento ad una categoria specifica di prodotti (i caricabatterie)ed approfondendo in particolare le cause e le principali tecniche per limitarne l'effetto, al fine di ottenere la compatibilità dei dispositivi. Le tecniche per abbattere le EMI presentate sono poi applicate a dispositivi commerciali per valutarne gli effetti. Il lavoro è stato svolto presso la Deca di San Marino che ha messo a disposizione un laboratorio EMC (dotato di LISN PMM L3-64, Ricevitore PMM 9010/30P full-compliance e AbsorbingClamp TESEQ) ed alcuni propri prodotti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nella tesi ho trattato l'effetto Gibbs,ovvero la presenza di forti oscillazioni nei polinomi di Fourier di funzioni con discontinuità di prima specie. Infine ho introdotto le somme di Fejér osservando come con questi polinomi trigonometrici si possa eliminare l'effetto Gibbs.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il lavoro ha riguardato l’elaborazione di segnali EEG registrati durante compiti di apprendimento associativo. In particolare, durante tali compiti, i soggetti imparavano ad associare ad una certa immagine un evento neutro e ad una diversa immagine un evento avverso; la tempistica dell’evento associato a ciascuna immagine era segnalata dalla comparsa di una cornice colorata attorno all’immagine. Mentre l’evento associato a ciascuna immagine era certo, la tempistica dell’evento poteva variare da prova a prova pur verificandosi nella maggior parte dei trial (80%) dopo un tempo T0 dalla comparsa dell’immagine e, nel 20% dei trial, dopo un tempo T1 dalla comparsa dell’immagine, con T1 < T0. Ciò generava nei soggetti le condizioni di EXPECTED TIMING dell’evento (associata alla tempistica più frequente) e la condizione di UNEXPECTED TIMING dell’evento (associata alla tempistica meno frequente). Ciascuna delle due condizioni poteva riguardare l’evento neutro (privo di una particolare valenza per il soggetto) e l’evento avverso (con una valenza negativa per il soggetto). Nel presente lavoro è stata eseguita un’analisi approfondita dei segnali EEG, sia a livello di potenziali evocati sullo scalpo che a livello di segnali ricostruiti sulla corteccia. Lo scopo è quello di chiarire le possibili attivazioni corticali che generano i potenziali osservati sullo scalpo e, quindi, quali aree della corteccia sono maggiormente implicate nella detezione degli errori di predizione. In particolare, si è indagato se tali errori sono influenzati dalla valenza dell’evento inatteso (nel nostro caso avverso rispetto a neutro). La ricostruzione delle sorgenti è stata effettuata utilizzando l’algoritmo sLORETA. In base ai risultati ottenuti, la tempistica di arrivo della cornice ha effetto soltanto quando l’evento ha una valenza (negativa) per il soggetto e le ROI maggiormente coinvolte sono quelle del cingolo e quelle somato-sensoriali.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

I materiali compositi sono largamente utilizzati nel moderno campo ingegneristico e garantiscono una notevole riduzione di peso rispetto ai materiali classici, a parità di caratteristiche meccaniche. Le conoscenze su di essi tuttavia presentano ancora delle lacune: in particolare un aspetto critico di tali materiali è rappresentato dal loro comportamento successivo ad un impatto. Obiettivo della presente tesi è indagare tale problematica mediante la realizzazione di una campagna sperimentale innovativa. Verrà presentata una introduzione generale sui materiali compositi e sulla problematica dei danni da impatto e verrà descritta l'attrezzatura utilizzata per la realizzazione degli impatti, analizzando le problematiche riscontrate e le soluzioni trovate. Dopo un accenno ai Controlli Non Distruttivi effettuabili sui materiali compositi, verrà mostrata l'attrezzatura per la realizzazione di prove a compressione, analizzando le problematiche riscontrate e le soluzioni trovate. Saranno elencati i dati acquisiti durante le prove di impatto e di compressione e, infine, saranno illustrate le conclusioni del lavoro e i possibili sviluppi futuri.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il mapping di grandezze fisiche risulta estremamente importante, essendo in grado di fornire un adeguato supporto per la localizzazione e il monitoraggio di parametri ambientali sensibili. Nel caso indoor, in assenza di un sistema di localizzazione di riferimento analogo al GPS per il caso outdoor, sfruttando appieno le potenzialità della sensoristica a bordo degli smartphone, si è fatto progressivamente strada il mapping di grandezze fisiche quali, ad esempio, il segnale Wi-Fi e il campo magnetico terrestre. In questo caso il mapping, senza richiedere alcuna infrastruttura e coadiuvato dall'utilizzo di dispositivi portatili largamente diffusi ad uso quotidiano, rappresenta una soluzione relativamente recente ridefinibile come Mobile Crowd Sensing. Il MCS rappresenta un nuovo paradigma di servizio, volto a sfruttare l'interconnettività tra dispositivi portatili per effettuare misurazioni di caratteristiche ambientali in maniera automatizzata, aggregandole in un sistema cloud usufruibile ad una vasta comunità. Tuttavia , il considerevole flusso di dati generato, la variabilità temporale delle grandezze di interesse e il rumore insito nelle misurazioni costituiscono problematiche fondamentali per l'utilizzo e la gestione delle misurazioni effettuate. Per tali motivi l'attività di tesi ha previsto i seguenti obiettivi: (i) fornire una panoramica delle principali tecniche e tecnologie di localizzazione volta a motivare l'importanza del mapping di grandezze fisiche ambientali; (ii) individuazione di grandezze fisiche appetibili per la creazione di mappe affidabili e realizzabili nei contesti applicativi più disparati, sfruttando risorse già presenti nell'ambiente; (iii) sviluppo di un algoritmo statistico in grado di fornire una stima accurata dell'andamento spaziale della grandezza di interesse attraverso un numero limitato di misurazioni, mantenendo la compatibilità con processi MCS e una bassa complessità computazionale. L’algoritmo sviluppato è stato validato attraverso simulazioni e misurazioni svolte in ambienti reali. In particolare, prove sperimentali sono state effettuate nell’arena Vicon nei laboratori DEI dell’Università di Bologna, sede Cesena, concepita dal gruppo di ricerca Casy.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nel presente documento verrà affrontata la messa a punto del banco di prova per la caratterizzazione del coefficiente d’attrito globale dei collegamenti bullonati, analizzando i parametri che influenzano la buona o cattiva realizzazione della prova e verrà stabilito se essi hanno influenza oppure no sulla prova; una volta ricavati e analizzati i parametri che influenzano la prova verranno effettuate prove per vedere l’intervallo di incertezza della misura del coefficiente d’attrito per comprendere l’affidabilità della prova; successivamente verrà studiata la differente lubrificazione nelle viti e analizzata quale zona di attrito ha un’incidenza maggiore e se è significativa, poi verranno analizzati due tipi di lubrificante e stabilito quale dei due da un migliore effetto e infine verranno analizzati alcuni parametri per vedere la loro influenza sul coefficiente d’attrito, verrà valutata se è significativa oppure no, e si valuterà quale ha più o meno effetto sul coefficiente d’attrito.