967 resultados para analisi non standard iperreali infinitesimi


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il concetto di "core training" è ampiamente diffuso nelle moderne metodologie di allenamento, nonostante sia spesso collegato a pratiche da campo non pienamente supportate dalla ricerca scientifica. Il termine "core" identifica il "centro funzionale del corpo" in grado di garantire una "adeguata stabilità prossimale al fine di ottimizzare la mobilità distale", sostenendo il complesso lombo-pelvico e permettendo la connessione funzionale tra arti e tronco. La muscolatura del core, cositutita principalmente dalla regione addominale e paraspinale, è ben condizionabile dall'utilizzo di superfici instabili quali Bosu e Fitball, strumenti comuni nel settore sportivo e rieducativo ma sui quali esistono teorie e conoscenze altamente eterogenee. Obiettivo della presente tesi è, dunque, da un lato quello di confrontare una varietà di esercizi eseguibili su entrambe le superfici instabili precedentemente citate al fine di determinare le attivazioni muscolari a livello del "core", dall'altro quello di valutare gli effetti indotti da un "core training" di 8 settimane su parametri performance-specifici. Lo studio, effettuato su atleti aventi una elevata esperienza in tale settore, evidenzia valori elettromiografici superiori nella Fitball e Bosu rispetto al tappeto, seppure in maniera non significativa; circa il legame con aspetti prestativi, emerge invece come un allenamento specifico ad alto impatto nervoso, modulato secondo un target razionale, consenta di incrementare l'endurance della muscolatura addominale, l'equilibrio funzionale dinamico e la capacità di trasmissione di forze arti-tronco, giustificandone un utilizzo in vari settori dell'attività motoria.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nel 2009 l'Italia attraversa la più grande crisi economica del secondo dopoguerra. Lo studio di ciò che accade, attraverso uno sguardo attento alle principali variabili congiunturali prodotte nel paese, è fondamentale per capire quali sono state le cause che hanno portato a questa situazione e per dare la possibilità  ai policy maker di limitarne gli effetti in futuro. Ma l'Italia non è un territorio dalle caratteristiche monolitiche, è un aggregato di parti molto diverse fra loro. Analizzando il territorio italiano come insieme delle sue parti, osserveremo le medesime condizioni economiche ripetersi in ogni territorio del paese? L'esperienza ci suggerisce di no. La tesi vuole evidenziare come e quanto la struttura caratteristica del tessuto produttivo regionale è responsabile anche della performance economica. La tesi è quindi caratterizzata da due parti. Da un lato si è cercato di analizzare quali siano le differenze nei cicli economici regionali, dall'altro, attraverso l'utilizzo di un sistema di valutazione "fuzzy", si è cercato di ricostruire la natura strutturale delle regioni, al fine di determinare quali siano le specializzazioni che ogni territorio è in grado di mettere in campo. La tesi si conclude con un'analisi comparativa degli indici di dissimilarità  tra cicli regionali e nazionale e i livelli sintetici di specializzazione, si è verificato che esiste una relazione forte che lega le caratteristiche strutturali delle regioni alle distanze tra i loro cicli, dimostrando quindi la tesi che struttura regionale e performance economica siano strettamente interconnesse.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A causa della limitata estensione del campo di vista del sistema, con un microscopio ottico tradizionale non è possibile acquisire una singola immagine completamente a fuoco se l’oggetto è caratterizzato da una profondità non trascurabile. Fin dagli anni ’70, il problema dell’estensione della profondità di fuoco è stato ampiamente trattato in letteratura e molti metodi sono stati proposti per superare questo limite. Tuttavia, è molto difficile riuscire a decretare quale metodo risulti essere il migliore in una specifica applicazione, a causa della mancanza di una metrica validata e adatta ad essere utilizzata anche in casi reali, dove generalmente non si ha a disposizione un’immagine di riferimento da considerare come “la verità” (ground truth). L’Universal Quality Index (UQI) è ampiamente utilizzato in letteratura per valutare la qualità dei risultati in processi di elaborazione di immagini. Tuttavia, per poter calcolare questo indice è necessaria una ground truth. In effetti, sono state proposte in letteratura alcune estensioni dell’UQI per valutare il risultato dei metodi di fusione anche senza immagine di riferimento, ma nessuna analisi esaustiva è stata proposta per dimostrare la loro equivalenza con l’UQI standard nel valutare la qualità di un’immagine. In questo lavoro di Tesi, partendo dai limiti dei metodi attualmente utilizzati per l'estensione della profondità di campo di un microscopio, ed esposti in letteratura, per prima cosa è stato proposto un nuovo metodo, basato su approccio spaziale e fondato su analisi locale del segnale appositamente filtrato. Attraverso l’uso di sequenze di immagini sintetiche, delle quali si conosce la ground truth, è stato dimostrato, utilizzando metriche comuni in image processing, che il metodo proposto è in grado di superare le performance dei metodi allo stato dell'arte. In seguito, attraverso una serie di esperimenti dedicati, è stato provato che metriche proposte e ampiamente utilizzate in letteratura come estensione dell'UQI per valutare la qualità delle immagini prodotte da processi di fusione, sebbene dichiarate essere sue estensioni, non sono in grado di effettuare una valutazione quale quella che farebbe l'UQI standard. E’ quindi stato proposto e validato un nuovo approccio di valutazione che si è dimostrato in grado di classificare i metodi di fusione testati così come farebbe l’UQI standard, ma senza richiedere un’immagine di riferimento. Infine, utilizzando sequenze di immagini reali acquisite a differenti profondità di fuoco e l’approccio di valutazione validato, è stato dimostrato che il metodo proposto per l’estensione della profondità di campo risulta sempre migliore, o almeno equivalente, ai metodi allo stato dell’arte.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente lavoro si occupa dell’analisi numerica di combustione di gas a basso potere calorifico (gas di sintesi derivanti da pirolisi di biomasse). L’analisi è stata condotta su due principali geometrie di camera di combustione. La prima è un bruciatore sperimentale da laboratorio adatto allo studio delle proprietà di combustione del singas. Esso è introdotto in camera separatamente rispetto ad una corrente d’aria comburente al fine di realizzare una combustione non-premiscelata diffusiva in presenza di swirl. La seconda geometria presa in considerazione è la camera di combustione anulare installata sulla microturbina a gas Elliott TA 80 per la quale si dispone di un modello installato al banco al fine dell’esecuzione di prove sperimentali. I principali obbiettivi conseguiti nello studio sono stati la determinazione numerica del campo di moto a freddo su entrambe le geometrie per poi realizzare simulazioni in combustione mediante l’utilizzo di diversi modelli di combustione. In particolare è stato approfondito lo studio dei modelli steady laminar flamelet ed unsteady flamelet con cui sono state esaminate le distribuzioni di temperatura e delle grandezze tipiche di combustione in camera, confrontando i risultati numerici ottenuti con altri modelli di combustione (Eddy Dissipation ed ED-FR) e con i dati sperimentali a disposizione. Di importanza fondamentale è stata l’analisi delle emissioni inquinanti, realizzata per entrambe le geometrie, che mostra l’entità di tali emissioni e la loro tipologia. Relativamente a questo punto, il maggior interesse si sposta sui risultati ottenuti numericamente nel caso della microturbina, per la quale sono a disposizione misure di emissione ottenute sperimentalmente. Sempre per questa geometria è stato inoltre eseguito il confronto fra microturbina alimentata con singas a confronto con le prestazioni emissive ottenute con il gas naturale. Nel corso dei tre anni, l’esecuzione delle simulazioni e l’analisi critica dei risultati ha suggerito alcuni limiti e semplificazioni eseguite sulle griglie di calcolo realizzate per lo studio numerico. Al fine di eliminare o limitare le semplificazioni o le inesattezze, le geometrie dei combustori e le griglie di calcolo sono state migliorate ed ottimizzate. In merito alle simulazioni realizzate sulla geometria del combustore della microturbina Elliott TA 80 è stata condotta dapprima l’analisi numerica di combustione a pieno carico per poi analizzare le prestazioni ai carichi parziali. Il tutto appoggiandosi a tecniche di simulazione RANS ed ipotizzando alimentazioni a gas naturale e singas derivato da biomasse. Nell’ultimo anno di dottorato è stato dedicato tempo all’approfondimento e allo studio della tecnica Large Eddy Simulation per testarne una applicazione alla geometria del bruciatore sperimentale di laboratorio. In tale simulazione è stato implementato l’SGS model di Smagorinsky-Lilly completo di combustione con modelli flamelet. Dai risultati sono stati estrapolati i profili di temperatura a confronto con i risultati sperimentali e con i risultati RANS. Il tutto in diverse simulazioni a diverso valore del time-step imposto. L’analisi LES, per quanto migliorabile, ha fornito risultati sufficientemente precisi lasciando per il futuro la possibilità di approfondire nuovi modelli adatti all’applicazione diretta sulla MTG.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La Muay Thai, comunemente detta “Boxe Thailandese” è un'arte marziale che rientra nella classificazione delle attività intermittenti con entrambi i sistemi energetici reclutati, aerobico e anaerobico, è inoltre caratterizzata dal fatto che il combattimento alla distanza si alterna alla lotta, denominata “clinch”. Nonostante la popolarità della Muay Thai, in ambito mondiale, stia progressivamente aumentando così come è in aumento il numero di atleti che la praticano, le ricerche incentrate su questa arte marziale e gli studi relativi agli aggiustamenti cardiometabolici nonché alle modalità temporali con cui gli specifici gesti atletici si possono succedere nel tempo durante un match, sono ancora estremamente esigui. L’oggetto del nostro studio è stato l’analisi della struttura temporale del combattimento, tramite la Match Analysis off line (analisi visiva del combattimento), con comparazione dei dati ottenuti tra il vincitore (winner) e il perdente (loser) e la valutazione dell’andamento di alcuni importanti parametri metabolici attraverso la misurazione del lattato e della HR, durante un incontro reale di Boxe Thailandese. La sperimentazione è stata condotta su un gruppo di dieci soggetti di sesso maschile, praticanti la disciplina ad un alto livello nazionale, la cui media ± deviazione standard (DS), di età, peso e altezza è di 24,6 ±4,01 anni, 69,4 ±7 kg e 174,1 ±4,3 cm. Gli atleti sono stati sottoposti, in due diverse giornate separate da almeno tre giorni, a due test; durante una prima seduta sperimentale preliminare abbiamo determinato il massimo consumo di ossigeno (VO2max) nel corso di un test sul nastro trasportare, con concomitante stima della Soglia anaerobica (SA) e misura della massima frequenza cardiaca (HR max). In una seconda seduta sperimentale abbiamo effettuato i test di combattimento in palestra e infine abbiamo analizzato i video degli incontri attraverso la Match Analysis. Dai risultati della Match - Analysis è scaturito che i vincitori hanno eseguito un numero più elevato di azioni efficaci (p < 0,05) rispetto ai non-vincitori, grazie ad un numero maggiore di combinazioni (C ) e di attacchi singoli (A) e un numero minore di difese (D) e di tecniche inefficaci. È così emerso come il livello delle realizzazioni sia quasi esclusivamente dovuto all’efficacia della tecnica e alla tattica delle azioni. Abbiamo quindi focalizzato la nostra attenzione sul clinch e sulle azioni di attacco perché si ipotizzava che potessero essere attività dispendiose e probabilmente responsabili dell’incremento di lattato durante il combattimento, dall’ analisi dei dati però non è stata riscontrata nessuna significativa correlazione tra l’andamento dei dati metabolici e le fasi di attacco e di lotta. Dai nostri risultati emerge in maniera interessante come durante le fasi attive del combattimento si siano raggiunti alti valori di lattato ematico e di frequenza cardiaca, rispettivamente di 12,55 mmol/L e di 182,68 b/min, ben oltre la SA rilevata nel test incrementale dove la HR si posizionava a 168,2 b/min. In conclusione si evidenzia come la Boxe Thailandese sia una disciplina caratterizzata da un considerevole impegno energetico-metabolico, sia aerobico che anaerobico. La predominanza del metabolismo lattacido è dimostrata dagli elevati valori di lattato osservati nel presente studio e dalla frequenza degli attacchi (8,6 ± 3,5 sec.). Questo studio potrà essere utilizzato dagli allenatori per la predisposizione di allenamenti specifici che inducano gli adattamenti propri della Muay Thai.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente lavoro di tesi si inserisce all’interno del progetto Europeo Theseus (Innovative technologies for European coasts in a changing climate), volto a fornire una metodologia integrata per la pianificazione sostenibile di strategie di difesa per la gestione dell’erosione costiera e delle inondazioni che tengano in conto non solo gli aspetti tecnici ma anche quelli sociali, economici e ambientali/ecologici. L'area oggetto di studio di questo elaborato di tesi è la zona costiera della Regione Emilia Romagna, costituita unicamente da spiagge sabbiose. In particolare si è focalizzata l’attenzione sulla zona intertidale, in quanto, essendo l’ambiente di transizione tra l’ambiente marino e quello terrestre può fornire indicazioni su fenomeni erosivi di una spiaggia e cambiamenti del livello del mare, unitamente alla risposta agli interventi antropici. Gli obiettivi della tesi sono sostanzialmente tre: un primo obiettivo è confrontare ecosistemi di spiagge dove sono presenti strutture di difesa costiera rispetto a spiagge che ne erano invece prive. Il secondo obiettivo è valutare l’impatto provocato sugli ecosistemi di spiaggia dall’attività stagionale del “bulldozing” e in ultimo proporre un sistema esperto di nuova concezione in grado di prevedere statisticamente la risposta delle comunità bentoniche a diversi tipi di interventi antropici. A tal fine è stato pianificato un disegno di campionamento dove sono stati indagati tre siti differenti per morfologia e impatto antropico: Cesenatico (barriere e pratica bulldozing), Cervia, dissipativa e non soggetta a erosione (assenza di barriere e ma con pratica del bulldozing) e Lido di Dante, tendenzialmente soggetta a erosione (senza barriere e senza pratica del bulldozing). Il campionamento è stato effettuato in 4 tempi (due prima del “bulldozing” e due dopo) nell’arco di 2 anni. In ciascun sito e tempo sono stati campionati 3 transetti perpendicolari alla linea di costa, e per ogni transetto sono stati individuati tre punti relativi ad alta, media e bassa marea. Per ogni variabile considerata sono stati prelevati totale di 216 campioni. Io personalmente ho analizzato i campioni dell’ultima campagna di campionamento, ma ho analizzato l’insieme dei dati. Sono state considerate variabili relative ai popolamenti macrobentonici quali dati di abbondanza, numero di taxa e indice di diversità di Shannon e alcune variabili abiotiche descrittive delle caratteristiche morfologiche dell’area intertidale quali granulometria (mediana, classazione e asimmetria), detrito conchigliare, contenuto di materia organica (TOM), pendenza e lunghezza della zona intertidale, esposizione delle spiagge e indici morfodinamici. L'elaborazione dei dati è stata effettuata mediante tecniche di analisi univariate e multivariate sia sui dati biotici che sulle variabili ambientali, “descrittori dell’habitat”, allo scopo di mettere in luce le interazioni tra le variabili ambientali e le dinamiche dei popolamenti macrobentonici. L’insieme dei risultati delle analisi univariate e multivariate sia dei descrittori ambientali che di quelli biotici, hanno evidenziato, come la risposta delle variabili considerate sia complessa e non lineare. Nonostante non sia stato possibile evidenziare chiari pattern di interazione fra “protezione” e “bulldozing”, sono comunque emerse delle chiare differenze fra i tre siti indagati sia per quanto riguarda le variabili “descrittori dell’habitat” che quelle relative alla struttura dei popolamenti. In risposta a quanto richiesto in contesto water framework directive e in maniera funzionale all’elevate complessità del sistema intertidale è stato proposto un sistema esperto basato su approccio congiunto fuzzy bayesiano (già utilizzato con altre modalità all’interno del progetto Theseus). Con il sistema esperto prodotto, si è deciso di simulare nel sito di Cesenatico due ripascimenti virtuali uno caratterizzato da una gralometria fine e da uno con una granulometria più grossolana rispetto a quella osservata a Cesenatico. Il sistema fuzzy naïve Bayes, nonostante al momento sia ancora in fase di messa a punto, si è dimostrato in grado di gestire l'elevato numero di interazioni ambientali che caratterizzano la risposta della componente biologica macrobentonica nell'habitat intertidale delle spiagge sabbiose.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’argomento scelto riguarda l’adozione di standard privati da parte di imprese agro-alimentari e le loro conseguenze sulla gestione globale dell’azienda. In particolare, lo scopo di questo lavoro è quello di valutare le implicazioni dovute all’adozione del BRC Global Standard for Food Safety da parte delle imprese agro-alimentari italiane. La valutazione di tale impatto è basata sulle percezioni dei responsabili aziendali in merito ad aspetti economici, gestionali, commerciali, qualitativi, organizzativi. La ricerca ha seguito due passaggi fondamentali: innanzitutto sono state condotte 7 interviste in profondità con i Responsabili Qualità (RQ) di aziende agro-alimentari italiane certificate BRC Food. Le variabili estrapolate dall’analisi qualitativa del contenuto delle interviste sono state inserite, insieme a quelle rilevate in letteratura, nel questionario creato per la successiva survey. Il questionario è stato inviato tramite e-mail e con supporto telefonico ad un campione di aziende selezionato tramite campionamento random. Dopo un periodo di rilevazione prestabilito, sono stati compilati 192 questionari. L’analisi descrittiva dei dati mostra che i RQ sono in buona parte d’accordo con le affermazioni riguardanti gli elementi d’impatto. Le affermazioni maggiormente condivise riguardano: efficienza del sistema HACCP, efficienza del sistema di rintracciabilità, procedure di controllo, formazione del personale, miglior gestione delle urgenze e non conformità, miglior implementazione e comprensione di altri sistemi di gestione certificati. Attraverso l’analisi ANOVA fra variabili qualitative e quantitative e relativo test F emerge che alcune caratteristiche delle aziende, come l’area geografica, la dimensione aziendale, la categoria di appartenenza e il tipo di situazione nei confronti della ISO 9001 possono influenzare differentemente le opinioni degli intervistati. Successivamente attraverso un’analisi fattoriale sono stati estratti 8 fattori partendo da un numero iniziale di 28 variabili. Sulla base dei fattori è stata applicata la cluster analysis di tipo gerarchico che ha portato alla segmentazione del campione in 5 gruppi diversi. Ogni gruppo è stato interpretato sulla base di un profilo determinato dal posizionamento nei confronti dei vari fattori. I risultati oltre ad essere stati validati attraverso focus group effettuati con ricercatori ed operatori del settore, sono stati supportati anche da una successiva indagine qualitativa condotta presso 4 grandi retailer inglesi. Lo scopo di questa successiva indagine è stato quello di valutare l’esistenza di opinioni divergenti nei confronti dei fornitori che andasse quindi a sostenere l’ipotesi di un problema di asimmetria informativa che nonostante la presenza di standard privati ancora sussiste nelle principali relazioni contrattuali. Ulteriori percorsi di ricerca potrebbero stimare se la valutazione dell’impatto del BRC può aiutare le aziende di trasformazione nell’implementazione di altri standard di qualità e valutare quali variabili possono influenzare invece le percezioni in termini di costi dell’adozione dello standard.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A partire dagli anni '70, si è assistito ad un progressivo riassetto geopolitico a livello mondiale Grazie anche all’evoluzione tecnologica ed alla sua diffusione di massa, il tempo e lo spazio si contraggono nel processo di globalizzazione che ha caratterizzato le società contemporanee ove l'informazione e la comunicazione assumono ormai un ruolo centrale nelle dinamiche di conoscenza. Il presente studio, intende far luce in primis sulla disciplina dell'intelligence, così come enunciata in ambito militare e "civile", in particolare nel contesto USA, NATO ed ONU, al fine quindi di evidenziare le peculiarità di una nuova disciplina di intelligence, cosiddetta Open Source Intelligence, che ha come elemento di innovazione l'utilizio delle informazioni non classificate. Dopo aver affrontato il problema della concettualizzazione ed evoluzione del fenomeno terroristico, sarà posto il focus sull’espressione criminale ad oggi maggiormente preoccupante, il terrorismo internazionale di matrice islamica, in prospettiva multidimensionale, grazie all’adozione di concetti criminologici interdisciplinari. Sotto il profilo della sperimentazione, si è, quindi, deciso di proporre, progettare e sviluppare l’architettura della piattaforma Open Source Intellicence Analysis Platform,un tool operativo di supporto per l’analista Open Source Intelligence, che si pone quale risorsa del’analisi criminologica, in grado di fornire un valido contributo, grazie al merge tra practice e research, nell’applicazione di tale approccio informativo al fenomeno terroristico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il patrimonio edilizio italiano è costituito in gran parte da costruzioni che utilizzano la muratura come struttura portante. Le conoscenze acquisite negli ultimi anni nel campo dell’ingegneria hanno reso evidente come le costruzioni in muratura siano state concepite, nel corso dei secoli, senza quegli accorgimenti che l’evoluzione delle tecniche moderne di analisi ha dimostrato essere necessari. Progettare un intervento edilizio su un edificio esistente, correlato anche alla valutazione di rischio sismico, e cercare di migliorare le prestazioni dello stesso edificio, richiede partire sempre dalla conoscenza delle caratteristiche statiche intrinseche che il materiale della muratura possiede. La conoscenza della patologia comporta l'indubbio vantaggio di mettere al corrente di cosa ci si può attendere nel futuro dal punto di vista strutturale, come ad esempio che il fenomeno non sarà eliminabile all'origine e che la fessura o lesione magari si riformerà sempre, a meno d’interventi statici rilevanti e di costi ingenti. Diventa quindi di fondamentale importanza eseguire uno studio approfondito dei fenomeni strutturali anomali di deterioramento, quali lesioni, fessurazioni e simili, legati spesso a fattori ambientali, attraverso specifiche indagini diagnostiche e di monitoraggio dello stato interno delle strutture, per definire le cause responsabili e il metodo più adeguato alla tutela dei beni storici [Mastrodicasa, 1993]. Il monitoraggio dei possibili parametri che influenzano tali processi può essere continuo nel tempo o per mezzo di metodologia discontinua che prevede l’utilizzo e la ripetizione di prove non distruttive. L’elevato costo di un eventuale processo continuo ha limitato significativamente la sua applicazione, riducendo lo studio all’analisi di pochi parametri derivanti dalle prove diagnostiche e spesso non del tutto adatti alla completa analisi della struttura. Il seguente lavoro di tesi è sviluppato all’interno del progetto SmooHS (Smart Monitoring of Historic Structures) nell’ambito del 7° Programma Quadro della Commissione Europea che si pone come obiettivo lo sviluppo di strumenti di monitoraggio innovativi ‘intelligenti’ e poco invasivi e modelli di degrado e la loro sperimentazione sul campo per verificarne l’effettiva efficacia attraverso il confronto con risultati di prove non distruttive. La normativa correlata a questo studio, “Norme Tecniche per le Costruzioni’ (D.M. 14/01/2008), evidenzia come ‘La conoscenza della costruzione storica in muratura è un presupposto fondamentale sia ai fini di un’attendibile valutazione della sicurezza sismica attuale sia per la scelta di un efficace intervento di miglioramento…. Si ha pertanto la necessità di affinare tecniche di analisi e interpretazione dei manufatti storici mediante fasi conoscitive dal diverso grado di attendibilità, anche in relazione al loro impatto. La conoscenza può, infatti, essere conseguita con diversi livelli di approfondimento, in funzione dell’accuratezza delle operazioni di rilievo, delle ricerche storiche, e delle indagini sperimentali. Tali operazioni saranno funzione degli obiettivi preposti e andranno a interessare tutto o in parte l’edificio, secondo la tipologia dell’intervento previsto’. L’utilizzo di ‘Tecniche diagnostiche non distruttive di tipo indiretto, quali prove soniche e ultrasoniche’ è preferibile poiché molto promettenti e hanno il pregio di poter essere utilizzate in modo diffuso con un relativo impatto sulla costruzione e costi relativamente contenuti. La non identificazione di una procedura univoca di prove non distruttive per ciascuna tipologia edilizia rende necessario uno studio di fattibilità di diverse tecniche per valutarne l’effettiva efficacia in base al risultato atteso. L’obiettivo di questo lavoro di tesi è stato lo studio sperimentale di valutazione dell’efficacia di alcune tecniche soniche in trasmissione, tomografia e prove soniche dirette, nel monitoraggio di provini precedentemente realizzati ad hoc nei laboratori LISG (Laboratorio di Ingegneria Strutturale e Geotecnica) del DICAM dell’Università di Bologna caratterizzati da presenze di discontinuità (vacui o inclusioni di polistirolo) o materiali differenti in determinate posizioni di geometria e localizzazione nota e diverse tessiture murarie (muratura di laterizio tradizionale, muratura a sacco, inclusioni lapidee). Il capitolo 1 presenta una descrizione generale delle murature, le cause principali di deterioramento e conseguenti dissesti. Presenta inoltre una finestra sulle prove diagnostiche. Nel capitolo 2 sono riportati alcuni esempi di applicazioni di tomografia e prove soniche e sviluppi di ricerca su strutture storiche lignee e murarie eseguite recentemente. Nel capitolo 3 sono presentati i provini oggetto di studio, la loro geometria, i difetti, le sezioni. Il capitolo 4 descrive i principi fisici delle prove soniche e grandezze caratteristiche e presenta la procedura di acquisizione e relative strumentazioni. I capitoli 5 e 6 riguardano lo studio sperimentale vero e proprio ottenuto attraverso l’utilizzo di tomografia sonica e prove dirette, con descrizione delle stazioni di prova, visualizzazione dei dati in tabelle per una semplice interpretazione, loro elaborazione e susseguente analisi approfondita, con valutazione dei risultati ottenuti e debite conclusioni. Il capitolo 7 presenta un confronto delle analisi comuni a entrambe le tipologie di prove soniche, visualizzazioni di istogrammi di paragone e considerazioni deducibili.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Abbiamo studiato ABSFJf, un linguaggio ad oggetti concorrente con tipi di dato futuro ed operazioni per acquisire e rilasciare il controllo delle risorse. I programmi ABSFJf possono manifestare lock (deadlock e livelock) a causa degli errori del programmatore. Per individuare staticamente possibili com- portamenti non voluti abbiamo studiato e implementato una tecnica per l'analisi dei lock basata sui contratti, che sono una descrizione astratta del comportamento dei metodi. I contratti si utilizzano per formare un automa i cui stati racchiudono informazioni di dipendenza di tipo chiamante-chiamato; vengono derivati automaticamente da un algoritmo di type inference e model- lati da un analizzatore che sfrutta la tecnica del punto

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il termine extravergine, per un olio di alta qualità, rappresenta solo un pre-requisito: la categoria merceologica, intesa come conformità ad una serie di analisi chimico-sensoriali previste dalla normativa Europea, non è sufficiente ad esaltare il valore aggiunto che un olio può avere in termini di attributi di qualità sensoriale e salutistica. Questi ultimi sono fortemente influenzati dalla presenza di alcuni composti minori, come le molecole volatili e quelle a struttura fenolica (biofenoli). I composti volatili sono i principali responsabili dell'aroma di un olio extravergine d’oliva, mentre i biofenoli lo sono per gli attributi positivi, di amaro e piccante, già normati dal legislatore. Lo studio ha riguardato le relazioni esistenti tra le sostanze volatili e biofenoliche e le percezioni sensoriali ad esse associate. Tra gli oli extravergini di oliva partecipanti all’International Olive Oil Award di Zurigo 2012, sono stati selezionati 28 campioni monovarietali di diversa provenienza geografica (principalmente Italia, Spagna e Grecia). La valutazione sensoriale è stata eseguita dal panel dell’Institute of Food and Beverage Innovation di Zurigo con l’impiego di una scheda di profilo più descrittiva di quella ufficiale (Reg. CE 640/2008), contenente numerosi attributi positivi secondari valutati su scala discreta a 4 punti, oltre ad armonia e persistenza, su scala continua di 10 cm. I campioni sono stati sottoposti alla caratterizzazione della frazione biofenolica (indice di amaro, contenuto in fenoli totali ed analisi delle principali molecole fenoliche mediante HPLC-DAD/MSD) e dei composti volatili (SPME/GC-MSD). I dati ottenuti sono stati elaborati con l’ausilio di tecniche di analisi multivariata nel tentativo di valutare le correlazioni esistenti tra le variabili e di individuare gruppi omogenei di oli. La finalità di questo lavoro è stata quella di suggerire attributi discriminanti la qualità sensoriale di oli di pregio, che possano essere impiegati come leve di promozione dei prodotti, così come indicatori addizionali di autenticità.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Numerose evidenze dimostrano che le proprietà dei materiali compositi sono strettamente legate ai processi produttivi, alle tipologie di fibra e resina impiegate nel materiale stesso. Proprietà caratterizzate anche dai difetti contenuti nel materiale stesso. Nella tesi si presta particolare attenzione al processo produttivo con prepreg e autoclave trattando anche il tema della stesura di un ply-book. Si valutano in modo teorico e critico alcuni tra i metodi N.D.T. più avanzati tra cui: P.T.(Penetrant Test), Rx(Radiography Test), UT (Ultrasound Test in Phased Array) e IRT (InfraRed Termography - Pulsata). Molteplici sono i componenti testati che variano tra loro per: tipologia di resina e fibra impiegata, processo produttivo e geometria. Tutti questi componenti permettono di capire come i singoli parametri influenzino la visualizzazione e l'applicabilità delle tecniche N.D.T. sopra citate. Su alcuni provini è stata eseguita la prova meccanica Drop Weight Test secondo ASTM D7136 per correlare le aree di delaminazione indotte e la sensibilità di ogni singolo metodo, visualizzando così la criticità indotta dagli urti con bassa energia di impatto (BVID Barely Invisible Impact)di cui i materiali compositi soffrono durante la "service life". A conclusione del lavoro si potrà comprendere come solo l'analisi con più metodi in parallelo permetta di ottenere una adeguata Probability Of Detection.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les théories du post-industrialisation utilisent comme une preuve empirique du changement du processus historique l’entrée dans une nouvelle structure sociale que, par ailleurs, se distingue par le déplacement des biens et des services et par la formation de nouvelles structures professionnelles et de la gestion. Dans ce contexte, en premier lieu, c’est très intéressant à comprendre comme les nouvelles formes de l’organisation économique et sociale ont reussies à influer sur les systèmes de la fiscalité directe de l’État italien et de l’État français à la formation et au perfectionnement de la notion de revenu du travail indépendant et aussi à la formation et au perfectionnement des modèles de la taxation directe des revenus du travail indépendant. Par conséquent, la recherche, dans le principe, se concentre sur le processus de la construction et de l’évolution de la notion de revenu du travail indépendant et aussi de la construction et de l’évolution des formes nationales de la taxation directe des revenus du travail indépendant; un processus dévelopé au cours de l’Époque Moderne et de l’Époque Contemporaine que, du point de vue historique-fiscale, s’encadre comme l’époque des grands changements en ce qui concerne aussi à la fiscalité directe des revenus de la richesse mobilière. En second lieu, c’est très important à préciser si existe la possibilité de reconstruire les notions actuelles des revenus du travail indépendant en vue de l’aproximation des modalitès de la taxation directe de cette catégorie de revenus de la richesse mobilière avec les modalitès de la taxation directe des revenus de l’entreprise adoptées dans les systèmes italien et français de la fiscalitè directe; par conséquent, la recherche s’oriente vers la déscrition et l’analyse des questions en ce qui concerne à la définition fiscale objective et subjective des revenus du travail indépendant, à la direction vers laquelle on doit s’adresser actuellement les modèles nationaux de la taxation directe des revenus du travail indépendant et les raisons que la justifient. En autre, la recherche s’étendre vers une analyse comparative laquelle évidence les éléments de la convergence et de la divergence nécessaires pour tirer avec exactitude des conclusions sur l’approximation au niveau national et européen des notions des revenus du travail indépendant et des principes et modalités de la taxation directe des revenus du travail indépendant à fin de garantir les libertés de l’établissement et de la prestation des services et les principes de non-dicrimination et de la non-différenciation fiscale des travailleurs indépendants transfrontières dans le marché intérieur. En troisième lieu, c’est très intéressant à préciser avec cette recherche si dans le cadre conventionnel et européen existe une notion de revenu du travail indépendant ou non et si existe un modèle européen unifié ou, au contraire, il s’agit d’une approximation des modèles nationales de la taxation directe des revenus du travail indépendant. Par conséquent, un’autre argument de la recherce est l’analyse de la normative conventionnelle et de la législation européenne et aussi de la jurisprudence de la Cour de la Justice de l’Union Européenne relatives à la construction d’une notion conventionnelle et aussi européenne du travail indépendant au matiere de la fiscalité directe et l’incidence de principes conventionnels et aussi de libertés européenne de l’établissement et de la prestation des services à la taxation directe des revenus des travailleurs indépendants par rapport aux principes de non-discrimination et de la non-différenciation fiscale; une analyse laquelle évidence l’absence d’un modèle conventionnel et d’un modèle européen harmonisé relativement à la taxation directe des revenus du travail indépendant à raison de la prévalence du principe de la souveranité fiscale au domaine de la fiscalitè directe et pour cette raison en peut parler seulement d’une approximation des modèles nationales de la taxation directe des revenus du travail indépendant à fin de garantir les libertés européenne de l’établissement et de la prestation des services des travailleurs indépendants et les principes conventionnels de non-discrimination et de la non-différenciation fiscale. À la fin, c’est très intéressant à préciser si existe une corrélation entre les Traités fiscales et le Droit fiscal européen en ce qui concerne à la notion de revenus du travail indépendant et les principes fiscales. Par conséquent, la recherche se compléte avec l’analyse du régime fiscale des revenus du travail indépendant évidencé dans le Modèle de la Convention de l’OCDE et dans la Convention Italie-France concernant à l’élimination de la double imposition; une analyse laquelle, en analogie avec le droit fiscal européen, précise l’approximation des revenus du travail indépendant avec les revenus de l’entreprise en se référant le Modèle de la Convention de l’OCDE et l’absence d’un modèle conventionel de la taxation directe des revenus du travail indépendant, mais, à différence du droit fiscal européen, évidence la présence des certains critéres adoptés par la normative conventionnelle à fin de garantir l’arrêt de la double imposition et le principe de la non-discrimination que, en substance, sont points de convérgence avec le droit fiscal européen. En autre, l’analyse de la normative conventionnelle de l’OCDE, à différence de la normative conventionnelle relative à la Convention de l’élimination de la double imposition finalisée par l’Italie et la France, évidence une évolution de la fiscalitè directe en ce qui concerne aux travailleurs indépendants laquelle se vérifie à l’adoption des critéres de la fiscalitè directe des revenus des sociétés et de la quelle en se dérive l’approximation de la notion des revenus du travail indépendant avec la notion des revenus de l’entreprise, en substance, revenus provenant par les activités économiques. Compte tenu de ce qui précède, c’est clair la convérgence parmis les législations nationales de la taxation directe des revenus du travail indépendant et la normative conventionnelle du Modèle de la Convention de l’OCDE et la normative europénne; une convérgence que confirme la nouvelle diréction vers la quelle s’adressent les notions et les modèles de la taxation directe des revenus du travail indépendant dans les systèmes nationals de la taxation directe: l’approximation avec les modèles nationales de la taxation directe des revenus des sociétés en vue de l’approximation des notions des revenus dérives par les activités économiques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La specificità dell'acquisizione di contenuti attraverso le interfacce digitali condanna l'agente epistemico a un'interazione frammentata, insufficiente da un punto di vista computazionale, mnemonico e temporale, rispetto alla mole informazionale oggi accessibile attraverso una qualunque implementazione della relazione uomo-computer, e invalida l'applicabilità del modello standard di conoscenza, come credenza vera e giustificata, sconfessando il concetto di credenza razionalmente fondata, per formare la quale, sarebbe invece richiesto all'agente di poter disporre appunto di risorse concettuali, computazionali e temporali inaccessibili. La conseguenza è che l'agente, vincolato dalle limitazioni ontologiche tipiche dell'interazione con le interfacce culturali, si vede costretto a ripiegare su processi ambigui, arbitrari e spesso più casuali di quanto creda, di selezione e gestione delle informazioni che danno origine a veri e propri ibridi (alla Latour) epistemologici, fatti di sensazioni e output di programmi, credenze non fondate e bit di testimonianze indirette e di tutta una serie di relazioni umano-digitali che danno adito a rifuggire in una dimensione trascendente che trova nel sacro il suo più immediato ambito di attuazione. Tutto ciò premesso, il presente lavoro si occupa di costruire un nuovo paradigma epistemologico di conoscenza proposizionale ottenibile attraverso un'interfaccia digitale di acquisizione di contenuti, fondato sul nuovo concetto di Tracciatura Digitale, definito come un un processo di acquisizione digitale di un insieme di tracce, ossia meta-informazioni di natura testimoniale. Tale dispositivo, una volta riconosciuto come un processo di comunicazione di contenuti, si baserà sulla ricerca e selezione di meta-informazioni, cioè tracce, che consentiranno l'implementazione di approcci derivati dall'analisi decisionale in condizioni di razionalità limitata, approcci che, oltre ad essere quasi mai utilizzati in tale ambito, sono ontologicamente predisposti per una gestione dell'incertezza quale quella riscontrabile nell'istanziazione dell'ibrido informazionale e che, in determinate condizioni, potranno garantire l'agente sulla bontà epistemica del contenuto acquisito.