1000 resultados para matrici ricorsive successioni polinomiali di tipo intero
Resumo:
Lo scopo del lavoro è quello di verificare tramite software CAD l’influenza dei principali parametri chirurgici e anatomici sul Range Of Motion (ROM). Sono stati costruiti 5 modelli, uno di articolazione sana(Senza Protesi), uno di protesi Convenzionale e tre di protesi Conservative o a Conservazione (Totale, Media e Bassa Conservazione). Per tutti i modelli sono state simulate le rotazioni di base e i cosiddetti movimenti critici, ovvero quei movimenti a rischio di lussazione. Le prove sono state eseguite per teste da 28-,32-,36-,40mm di diametro, e con la coppa orientata di 45° in abduzione e 15° gradi in antiversione prima e successivamente di 45° e 0°. Inoltre, per verificare l’influenza dell’offset sul ROM, sono stati costruiti e simulati i movimenti per altri 5 modelli che non conservassero il vincolo del mantenere l’offset anatomico. Variando il diametro della testa si registrano differenze apprezzabili in termini di ROM solo per i movimenti di Estensione e Abduzione per il modello di Protesi Convenzionale e di Abduzione per il modello a Bassa Conservazione. Variando il livello di resezione del collo si è visto come per i modelli di protesi a Media Conservazione, Bassa Conservazione e Convenzionale si misurano angoli superiori a quello del riferimento tratto dalla Letteratura. Diversamente per il modello di Protesi a Totale Conservazione i valori ottenuti per alcuni movimenti sono inferiori, poiché limitati da un contatto di tipo c-b. Le simulazioni dei movimenti critici confermano la tendenza di un ROM accettabile per i modelli di protesi a Bassa Conservazione e di protesi Convenzionale, i quali forniscono escursioni angolari sempre superiori a quelle prese come riferimento dalla Letteratura. Invece, le protesi a Totale e Media Conservazione forniscono valori inferiori al riferimento per i movimenti di Pivot e Roll, essendo limitati dall’antiversione della coppa (movimenti di ExtraRotazione e contatto c-b). Variando la posizione della coppa a 45°/0° i due movimenti Critici Pivot e Roll migliorano per i modelli a Totale e Media Conservazione, tornando in linea con il riferimento. Riguardo l’offset si nota come più si avvicina a quello anatomico che misura 46,2mm (da 37 a 44mm), più si riscontra un aumento in termini di ROM.
Resumo:
Negli ultimi anni si sente sempre più spesso parlare di cloud computing. L'idea di fondo di questo concetto è quella di pagare per il solo effettivo utilizzo di un servizio, disponibile sulla rete, avendo a disposizione la possibilità di poter variare le proprie risorse utilizzabili a seconda delle necessità, che potrebbero essere, per esempio, applicazioni standard oppure spazi di storage per i dati. Quando cominciò a diffondersi l'utilizzo del Web, la rete Internet veniva raffigurata come una nuvola (cloud) in modo tale che si rendesse l'idea di un'entità esterna rispetto alla nostra casa o al nostro posto di lavoro, un qualcosa cioè al di fuori dei luoghi abituali in cui vengono utilizzati i PC. Tale rappresentazione diventa ora utile per poter spiegare il concetto di cloud computing. Infatti, grazie a questa nuova tecnologia, dati e programmi normalmente presenti nei nostri computer potranno ora trovarsi sul cloud. Molti reparti IT sono costretti a dedicare una parte significativa del loro tempo a progetti di implementazione, manutenzione e upgrade che spesso non danno un vero valore per l'azienda. I team di sviluppo hanno cominciato quindi a rivolgersi a questa nuova tecnologia emergente per poter minimizzare il tempo dedicato ad attività a basso valore aggiunto per potersi concentrare su quelle attività strategiche che possono fare la differenza per un'azienda. Infatti un'infrastruttura come quella cloud computing promette risparmi nei costi amministrativi che raggiungono addirittura il 50% rispetto ad un software standard di tipo client/server. Questa nuova tecnologia sta dando inizio ad un cambiamento epocale nel mondo dello sviluppo delle applicazioni. Il passaggio che si sta effettuando verso le nuove soluzioni cloud computing consente infatti di creare applicazioni solide in tempi decisamente più brevi e con costi assai inferiori, evitando inoltre tutte le seccature associate a server, soluzioni software singole, aggiornamenti, senza contare il personale necessario a gestire tutto questo. L'obiettivo di questa tesi è quello di mostrare una panoramica della progettazione e dello sviluppo di applicazioni Web nel cloud computing, analizzandone pregi e difetti in relazione alle soluzioni software attuali. Nel primo capitolo viene mostrato un quadro generale in riferimento al cloud, mettendo in luce le sue caratteristiche fondamentali, esaminando la sua architettura e valutando vantaggi e svantaggi di tale piattaforma. Nel secondo capitolo viene presentata la nuova metodologia di progettazione nel cloud, operando prima di tutto un confronto con lo sviluppo dei software standard e analizzando poi l'impatto che il cloud computing opera sulla progettazione. Nel terzo capitolo si entra nel merito della progettazione e sviluppo di applicazioni SaaS, specificandone le caratteristiche comuni ed elencando le piattaforme di rilievo allo stato dell'arte. Si entrerà inoltre nel merito della piattaforma Windows Azure. Nel quarto capitolo viene analizzato nel particolare lo sviluppo di applicazioni SaaS Multi-Tenant, specificando livelli e caratteristiche, fino a spiegare le architetture metadata-driven. Nel quinto capitolo viene operato un confronto tra due possibili approcci di sviluppo di un software cloud, analizzando nello specifico le loro differenze a livello di requisiti non funzionali. Nel sesto capitolo, infine, viene effettuata una panoramica dei costi di progettazione di un'applicazione cloud.
Resumo:
Negli ultimi anni si è assistito ad una radicale rivoluzione nell’ambito dei dispositivi di interazione uomo-macchina. Da dispositivi tradizionali come il mouse o la tastiera si è passati allo sviluppo di nuovi sistemi capaci di riconoscere i movimenti compiuti dall’utente (interfacce basate sulla visione o sull’uso di accelerometri) o rilevare il contatto (interfacce di tipo touch). Questi sistemi sono nati con lo scopo di fornire maggiore naturalezza alla comunicazione uomo-macchina. Le nuove interfacce sono molto più espressive di quelle tradizionali poiché sfruttano le capacità di comunicazione naturali degli utenti, su tutte il linguaggio gestuale. Essere in grado di riconoscere gli esseri umani, in termini delle azioni che stanno svolgendo o delle posture che stanno assumendo, apre le porte a una serie vastissima di interessanti applicazioni. Ad oggi sistemi di riconoscimento delle parti del corpo umano e dei gesti sono ampiamente utilizzati in diversi ambiti, come l’interpretazione del linguaggio dei segni, in robotica per l’assistenza sociale, per indica- re direzioni attraverso il puntamento, nel riconoscimento di gesti facciali [1], interfacce naturali per computer (valida alternativa a mouse e tastiera), ampliare e rendere unica l’esperienza dei videogiochi (ad esempio Microsoft 1 Introduzione Kinect© e Nintendo Wii©), nell’affective computing1 . Mostre pubbliche e musei non fanno eccezione, assumendo un ruolo cen- trale nel coadiuvare una tecnologia prettamente volta all’intrattenimento con la cultura (e l’istruzione). In questo scenario, un sistema HCI deve cercare di coinvolgere un pubblico molto eterogeneo, composto, anche, da chi non ha a che fare ogni giorno con interfacce di questo tipo (o semplicemente con un computer), ma curioso e desideroso di beneficiare del sistema. Inoltre, si deve tenere conto che un ambiente museale presenta dei requisiti e alcune caratteristiche distintive che non possono essere ignorati. La tecnologia immersa in un contesto tale deve rispettare determinati vincoli, come: - non può essere invasiva; - deve essere coinvolgente, senza mettere in secondo piano gli artefatti; - deve essere flessibile; - richiedere il minor uso (o meglio, la totale assenza) di dispositivi hardware. In questa tesi, considerando le premesse sopracitate, si presenta una sistema che può essere utilizzato efficacemente in un contesto museale, o in un ambiente che richieda soluzioni non invasive. Il metodo proposto, utilizzando solo una webcam e nessun altro dispositivo personalizzato o specifico, permette di implementare i servizi di: (a) rilevamento e (b) monitoraggio dei visitatori, (c) riconoscimento delle azioni.
Resumo:
NGAL è considerato dalla comunità scientifica un marcatore di danno renale sia di tipo ischemico che tossico. In questo studio è stato effettuato un follow-up ad un mese di una popolazione sottoposta a trapianto di rene, sono state analizzate la fase post-operatoria e l’immediato periodo di stabilizzazione del trapianto. E' stato osservato l’andamento di NGAL in relazione alle principali variabili incidenti.
Resumo:
L’argomento scelto riguarda l’adozione di standard privati da parte di imprese agro-alimentari e le loro conseguenze sulla gestione globale dell’azienda. In particolare, lo scopo di questo lavoro è quello di valutare le implicazioni dovute all’adozione del BRC Global Standard for Food Safety da parte delle imprese agro-alimentari italiane. La valutazione di tale impatto è basata sulle percezioni dei responsabili aziendali in merito ad aspetti economici, gestionali, commerciali, qualitativi, organizzativi. La ricerca ha seguito due passaggi fondamentali: innanzitutto sono state condotte 7 interviste in profondità con i Responsabili Qualità (RQ) di aziende agro-alimentari italiane certificate BRC Food. Le variabili estrapolate dall’analisi qualitativa del contenuto delle interviste sono state inserite, insieme a quelle rilevate in letteratura, nel questionario creato per la successiva survey. Il questionario è stato inviato tramite e-mail e con supporto telefonico ad un campione di aziende selezionato tramite campionamento random. Dopo un periodo di rilevazione prestabilito, sono stati compilati 192 questionari. L’analisi descrittiva dei dati mostra che i RQ sono in buona parte d’accordo con le affermazioni riguardanti gli elementi d’impatto. Le affermazioni maggiormente condivise riguardano: efficienza del sistema HACCP, efficienza del sistema di rintracciabilità, procedure di controllo, formazione del personale, miglior gestione delle urgenze e non conformità, miglior implementazione e comprensione di altri sistemi di gestione certificati. Attraverso l’analisi ANOVA fra variabili qualitative e quantitative e relativo test F emerge che alcune caratteristiche delle aziende, come l’area geografica, la dimensione aziendale, la categoria di appartenenza e il tipo di situazione nei confronti della ISO 9001 possono influenzare differentemente le opinioni degli intervistati. Successivamente attraverso un’analisi fattoriale sono stati estratti 8 fattori partendo da un numero iniziale di 28 variabili. Sulla base dei fattori è stata applicata la cluster analysis di tipo gerarchico che ha portato alla segmentazione del campione in 5 gruppi diversi. Ogni gruppo è stato interpretato sulla base di un profilo determinato dal posizionamento nei confronti dei vari fattori. I risultati oltre ad essere stati validati attraverso focus group effettuati con ricercatori ed operatori del settore, sono stati supportati anche da una successiva indagine qualitativa condotta presso 4 grandi retailer inglesi. Lo scopo di questa successiva indagine è stato quello di valutare l’esistenza di opinioni divergenti nei confronti dei fornitori che andasse quindi a sostenere l’ipotesi di un problema di asimmetria informativa che nonostante la presenza di standard privati ancora sussiste nelle principali relazioni contrattuali. Ulteriori percorsi di ricerca potrebbero stimare se la valutazione dell’impatto del BRC può aiutare le aziende di trasformazione nell’implementazione di altri standard di qualità e valutare quali variabili possono influenzare invece le percezioni in termini di costi dell’adozione dello standard.
Resumo:
In molti settori della ricerca in campo biologico e biomedico si fa ricorso a tecniche di High Throughput Screening (HTS), tra cui studio dei canali ionici. In questo campo si studia la conduzione di ioni attraverso una membrana cellulare durante fenomeni che durano solo alcuni millisecondi. Allo scopo sono solitamente usati sensori e convertitori A/D ad elevata velocità insieme ad opportune interfacce di comunicazione, ad elevato bit-rate e latenza ridotta. In questa tesi viene descritta l'implementazione di un modulo VHDL per la trasmissione di dati digitali provenienti da un sistema HTS attraverso un controller di rete integrato dotato di un'interfaccia di tipo Ethernet, individuando le possibili ottimizzazioni specifiche per l'applicazione di interesse.
Resumo:
L’imballaggio alimentare si può definire come un sistema coordinato per disporre i beni per il trasporto, la distribuzione, la conservazione, la vendita e l’utilizzo. Uno dei materiali maggiormente impiegati, nell’industria alimentare, per la produzione di imballaggi sono le materie plastiche. Esse sono sostanze organiche derivanti da petrolio greggio, sono composti solidi allo stato finito, ma possono essere modellate allo stato fluido. Un imballaggio alimentare deve svolgere determinate funzioni tra cui: - contenimento del prodotto - protezione del prodotto da agenti esterni - logistica - comunicativa - funzionale - ecologica L'ultimo punto sopracitato è il principale problema delle materie plastiche derivanti dal petrolio greggio. Questi materiali sono difficilmente riciclabili perché spesso un imballaggio è composto da più materiali stratificati o perché si trova a diretto contatto con gli alimenti. Inoltre questi materiali hanno un lungo tempo di degradazione (da 100 a 1000 anni) che ne rendono difficile e costoso lo smaltimento. Per questo nell’ultimo decennio è cominciata la ricerca di un materiale plastico, flessibile alle esigenze industriali e nel contempo biodegradabile. Una prima idea è stata quella di “imitare la natura” cercando di replicare macromolecole già esistenti (derivate da amido e zuccheri) per ottenere una sostanza plastico-simile utilizzabile per gli stessi scopi, ma biodegradabile in circa sei mesi. Queste bioplastiche non hanno preso piede per l’alto costo di produzione e perché risulta impossibile riconvertire impianti di produzione in tutto il mondo in tempi brevi. Una seconda corrente di pensiero ha indirizzato i propri sforzi verso l’utilizzo di speciali additivi aggiunti in minima misura (1%) ai classici materiali plastici e che ne permettono la biodegradazione in un tempo inferiore ai tre anni. Un esempio di questo tipo di additivi è l’ECM Masterbatch Pellets che è un copolimero di EVA (etilene vinil acetato) che aggiunto alle plastiche tradizionali rende il prodotto finale completamente biodegradabile pur mantenendo le proprie caratteristiche. Scopo di questo lavoro di tesi è stato determinare le modificazioni di alcuni parametri qualitativi di nettarine di Romagna(cv.-Alexa®) confezionate-con-film-plastici-tradizionali-e-innovativi. I campioni di nettarine sono stati confezionati in cestini in plastica da 1 kg (sigillati con un film flow-pack macroforato) di tipo tradizionale in polipropilene (campione denominato TRA) o vaschette in polipropilene additivato (campione denominato BIO) e conservati a 4°C e UR 90-95% per 7 giorni per simulare un trasporto refrigerato successivamente i campioni sono stati posti in una camera a 20°C e U.R. 50% per 4 giorni al fine di simulare una conservazione al punto vendita. Al tempo 0 e dopo 4, 7, 9 e 11 giorni sono state effettuate le seguenti analisi: - coefficiente di respirazione è stato misurata la quantità di CO2 prodotta - indice di maturazione espresso come rapporto tra contenuto in solidi solubili e l’acidità titolabile - analisi di immagine computerizzata - consistenza della polpa del frutto è stata misurata attraverso un dinamometro Texture Analyser - contenuto in solidi totali ottenuto mediante gravimetria essiccando i campioni in stufa sottovuoto - caratteristiche sensoriali (Test Accettabilità) Conclusioni In base ai risultati ottenuti i due campioni non hanno fatto registrare dei punteggi significativamente differenti durante tutta la conservazione, specialmente per quanto riguarda i punteggi sensoriali, quindi si conclude che le vaschette biodegradabili additivate non influenzano la conservazione delle nettarine durante la commercializzazione del prodotto limitatamente ai parametri analizzati. Si ritiene opportuno verificare se il processo di degradazione del polimero additivato si inneschi già durante la commercializzazione della frutta e soprattutto verificare se durante tale processo vengano rilasciati dei gas che possono accelerare la maturazione dei frutti (p.e. etilene), in quanto questo spiegherebbe il maggiore tasso di respirazione e la più elevata velocità di maturazione dei frutti conservati in tali vaschette. Alimentary packaging may be defined as a coordinate system to dispose goods for transport, distribution, storage, sale and use. Among materials most used in the alimentary industry, for the production of packaging there are plastics materials. They are organic substances deriving from crude oil, solid compounds in the ended state, but can be moulded in the fluid state. Alimentary packaging has to develop determinated functions such as: - Product conteniment - Product protection from fieleders agents - logistic - communicative - functional - ecologic This last term is the main problem of plastic materials deriving from crude oil. These materials are hardly recyclable because a packaging is often composed by more stratified materials or because it is in direct contact with aliments. Beside these materials have a long degradation time(from 100 to 1000 years) that make disposal difficult and expensive. For this reason in the last decade the research for a new plastic material is begin, to make industrial demands more flexible and, at the same time, to make this material biodegradable: At first, the idea to “imitate the nature” has been thought, trying to reply macromolecules already existents (derived from amid and sugars) to obtain a similar-plastic substance that can be used for the same purposes, but it has to be biodegradable in about six months. These bioplastics haven’t more success bacause of the high production cost and because reconvert production facilities of all over the wolrd results impossible in short times. At second, the idea to use specials addictives has been thought. These addictives has been added in minim measure (1%) to classics plastics materials and that allow the biodegradation in a period of time under three years. An example of this kind of addictives is ECM Masterbatch Pellets which is a coplymer of EVA (Ethylene vinyl acetate) that, once it is added to tradizional plastics, make final product completely biodegradable however maintaining their own attributes. The objective of this thesis work has been to determinate modifications of some Romagna’s Nectarines’ (cv. Alexa®) qualitatives parameters which have been packaged-with traditional and innovative-plastic film. Nectarines’ samples have been packaged in plastic cages of 1 kg (sealed with a macro-drilled flow-pack film) of traditional type in polypropylene (sample named TRA) or trays in polypropylene with addictives (sample named BIO) and conservated at 4°C and UR 90-95% for 7 days to simulate a refrigerated transport. After that, samples have been put in a camera at 20°C and U.R. 50% for 4 days to simulate the conservation in the market point. At the time 0 and after 4, 7, 9 and 11 days have been done the following analaysis: - Respiration coefficient wherewith the amount CO2 producted has been misurated - Maturation index which is expressed as the ratio between solid soluble content and the titratable acidity - Analysis of computing images - Consistence of pulp of the fruit that has been measured through Texture Analyser Dynanometer - Content in total solids gotten throught gravimetry by the drying of samples in vacuum incubator - Sensorial characteristic (Panel Test) Consequences From the gotten results, the two samples have registrated no significative different scores during all the conservation, expecially about the sensorial scores, so it’s possible to conclude that addictived biodegradable trays don’t influence the Nectarines’ conservation during the commercialization of the product qualifiedly to analized parameters. It’s advised to verify if the degradation process of the addicted polymer may begin already during the commercialization of the fruit and in particular to verify if during this process some gases could be released which can accelerate the maturation of fruits (p.e. etylene), because all this will explain the great respiration rate and the high speed of the maturation of fruits conservated in these trays.
Resumo:
Questa relazione finale è stata frutto di un lavoro sperimentale svolto in collaborazione con un’azienda del territorio ed ha avuto come obiettivo principale quello di verificare i parametri qualitativi e compositivi di una nuova tipologia di salume in fase di studio. L’azienda sta studiando una nuova tipologia di “prodotto funzionale” addizionando componenti ad attività nutraceutica al salame ottenuto da sole parti magre di suino. L’intenzione dell’azienda è di arricchire il proprio prodotto con acidi grassi polinsaturi della serie omega-3 (da olio di semi di lino), noti per gli effetti benefici che possono esercitare sulla salute umana. A questo scopo, sul prodotto di nuova formulazione (ed in parallelo sul prodotto a formulazione classica e su un prodotto del tutto simile commercializzato da un’altra azienda) sono state effettuate sia la determinazione della percentuale lipidica, al fine di individuare il quantitativo totale di grasso, che una caratterizzazione gascromatografica del profilo quali-quantitativo in acidi grassi, analsi fondamentale per verificare la conformità con i requisiti indicati dal Reg. 1924/06, e successive modifiche, previsti per le indicazioni da inserire in etichetta (claims). Inoltre, è stato importante controllare che la concentrazione voluta di acido alfa-linolenico si mantenga tale durante tutto il periodo di shelf-life del prodotto (45 gg), perciò per soddisfare quest’ultima finalità, le analisi sono state eseguite sia all’inizio (T0) che alla fine (T1) della vita commerciale del prodotto. E’ apparso poi fondamentale monitorare un possibile decadimento/modifica della qualità organolettica del prodotto di nuova formulazione, a causa del possibile aumento di ossidabilità della frazione lipidica causata da una maggiore presenza di acidi grassi polinsaturi; ed infine, con l’intento di verificare se la nuova formulazione potesse comportare una variazione significativa delle caratteristiche sensoriali del prodotto, sono stati condotti un test descrittivo quantitativo (QDA), in grado di descrivere il profilo sensoriale del prodotto ed un test discriminante qualitativo (metodo triangolare) capace di valutare l’eventuale comparsa di cambiamenti in seguito alle modifiche apportate al prodotto; per ultimo è stato poi eseguito un test affettivo quantitativo (test di preferenza, condotto su scala di laboratorio) in grado fornire informazioni sul gradimento e di evidenziare i principali vettori che guidano le scelte dei consumatori. I risultati delle analisi chimiche e sensoriali, eseguite per soddisfare tali richieste, hanno evidenziato come il salume presenti un quantitativo di tali acidi grassi polinsaturi in linea con il claim “Alimento fonte di acidi grassi omega-3”, (requisiti indicati dal Reg. 1924/06 e successive modifiche), risultato confermato sia all’inizio che al termine della vita commerciale del prodotto (pari a circa 45 giorni). Inoltre, esso risulta essere piuttosto interessante dal punto di vista nutrizionale, poiché caratterizzato da un contenuto di grasso per la categoria dei salumi, relativamente limitato, pari a circa il 15%, con percentuali più favorevoli in acidi grassi insaturi. L’analisi del profilo sensoriale condotta ad inizio shelf-life ha invece evidenziato come questa tipologia di prodotto sia caratterizzata sia al gusto che all’olfatto da note più sapide e speziate , oltre ad una maggiore consistenza della fetta, rispetto agli altri campioni analizzati, mentre i risultati relativi al termine della shelf-life hanno evidenziato come esso tenda ad essere soggetto ad alterazioni sensoriali rilevabili proprio al termine della fase di conservazione dovute nello specifico alla formazione di composti responsabili dell’odore di rancido. I test discriminanti, condotti con giudici non allenati, non hanno invece fatto registrare differenze sensoriali significative tra il prodotto con formulazione classica e quello di nuova formulazione, confrontati ad inizio e a fine shelf-life. Riassumendo, dai risultati ottenuti da questo lavoro sperimentale, il prodotto di nuova formulazione, arricchito in acidi grassi polinsaturi della serie omega-3, risulta essere in linea con il claim “Alimento fonte di acidi grassi omega-3”, presenta in generale un contenuto di grasso totale inferiore a quello di altre tipologie di salumi ed un rapporto più favorevole tra acidi grassi insaturi e saturi, per questo può essere considerato un prodotto interessante dal punto di vista della salute e della nutrizione. Proprio per la sua formulazione più ricca in acidi grassi polinsaturi, tende però a fine shelf-life a presentare una leggera nota di rancido, riconducibile ad una maggiore ossidabilità della frazione lipidica. Tale variazione sensoriale è risultata comunque percepita solo da un panel allenato, mentre un test di tipo discriminante, condotto con giudici non allenati, non ha messo in luce differenze significative tra il salume di nuova formulazione e quello con formulazione classica né all’inizio, né al termine della vita commerciale del prodotto.
Resumo:
In questa tesi di laurea si affronta l’analisi di diversi modelli per il calcolo della capacità di un’intersezione a rotatoria: alcuni di questi sono di tipo empirico, altri invece sono di tipo teorico (teoria del gap acceptance). Innanzitutto si descrivono le caratteristiche di tutti i modelli studiati e si esaminano i risultati ottenuti nel calcolo della capacità al variare del flusso circolante, effettuato su un campione di venti rotatorie. In particolare si cerca di confrontare tra loro i vari modelli e di interpretare il significato dei parametri che compaiono nelle diverse formule. Successivamente si amplia l’analisi, utilizzando i dati raccolti come punto di partenza per una serie di altre elaborazioni ed interpolazioni. Alla base di questa seconda parte dello studio c’è l’idea di provare a vedere se sia possibile ricavare un nuovo modello, derivante da quelli studiati, che possa riassumerli in maniera semplice e aiutare a chiarire quali sono i parametri più importanti dai quali dipende il valore di capacità di una rotatoria. Questo nuovo modello dovrebbe eventualmente servire più che altro per interpretare i modelli studiati e per capire se uno di questi si comporti meglio degli altri in situazioni particolari oppure se sia più adatto in determinate condizioni di traffico piuttosto che in altre. Uno degli obiettivi principali di questo studio è infatti quello di provare a capire se la capacità di una rotatoria è influenzata maggiormente da aspetti geometrici, legati quindi alla forma e alle dimensioni della rotatoria stessa, oppure se un ruolo predominante è svolto da fattori comportamentali, legati quindi all’interazione tra i veicoli e ai processi di scelta degli utenti, che devono decidere se immettersi o meno nella rotatoria.
Resumo:
Le leghe di alluminio da fonderia rivestono un ruolo fondamentale in ambito industriale e in particolare il settore dei trasporti ha notevolmente incrementato il loro impiego per la realizzazione di componenti strutturali. Al fine di aumentare ulteriormente la resistenza specifica, tali leghe possono essere impiegate come matrici per lo sviluppo di compositi (Metal Matrix Composites, MMCs), le cui fasi di rinforzo possono avere diversa composizione, forma e dimensione. In particolare, nel caso di rinforzo particellare, più le particelle sono piccole e finemente disperse nella matrice, più elevato può essere l’incremento delle prestazioni meccaniche. In quest’ottica, la ricerca ha portato allo sviluppo dapprima di compositi caratterizzati da un rinforzo micrometrico e, in anni recenti, si sta concentrando sul rinforzo nanometrico (Metal Matrix Nano Composites, MMNCs). I nano-compositi possono essere ottenuti attraverso metodologie differenti: tecniche in situ, in cui il rinforzo viene generato all’interno della matrice attraverso opportune reazioni chimiche, e tecniche ex situ, in cui i dispersoidi vengono inseriti nella matrice fusa, una volta già formati. Sebbene l’incremento prestazionale ottenibile da tali materiali sia stato dimostrato, è necessario far fronte ad alcune problematiche connesse a ciascuna tecnologia produttiva quali, ad esempio, il controllo dei parametri di processo, per quanto riguarda le tecniche in situ, e l’ottenimento di una efficace dispersione delle nano-particelle all’interno della matrice, nel caso delle metodologie ex-situ. Lo scopo della presente attività di tesi è lo studio di fattibilità, basato anche su un’ampia indagine bibliografica, e l’implementazione di metodologie produttive, su scala di laboratorio, volte allo sviluppo di MMNCs a matrice in lega di alluminio (A356, Al-Si-Mg). L’interesse è stato posto in primo luogo sul processo in situ di gas bubbling, mirato all’ottenimento di rinforzo d’allumina, indotto dalla reazione tra matrice metallica e gas ossidante (in questo caso aria secca industriale). In secondo luogo, dal punto di vista delle tecniche ex situ, è stato approfondito l’aspetto della dispersione delle particelle di rinforzo nel fuso, prestando particolare attenzione alla tecnica di trattamento ultrasonico del metallo.
Resumo:
Il patrimonio edilizio italiano è costituito in gran parte da costruzioni che utilizzano la muratura come struttura portante. Le conoscenze acquisite negli ultimi anni nel campo dell’ingegneria hanno reso evidente come le costruzioni in muratura siano state concepite, nel corso dei secoli, senza quegli accorgimenti che l’evoluzione delle tecniche moderne di analisi ha dimostrato essere necessari. Progettare un intervento edilizio su un edificio esistente, correlato anche alla valutazione di rischio sismico, e cercare di migliorare le prestazioni dello stesso edificio, richiede partire sempre dalla conoscenza delle caratteristiche statiche intrinseche che il materiale della muratura possiede. La conoscenza della patologia comporta l'indubbio vantaggio di mettere al corrente di cosa ci si può attendere nel futuro dal punto di vista strutturale, come ad esempio che il fenomeno non sarà eliminabile all'origine e che la fessura o lesione magari si riformerà sempre, a meno d’interventi statici rilevanti e di costi ingenti. Diventa quindi di fondamentale importanza eseguire uno studio approfondito dei fenomeni strutturali anomali di deterioramento, quali lesioni, fessurazioni e simili, legati spesso a fattori ambientali, attraverso specifiche indagini diagnostiche e di monitoraggio dello stato interno delle strutture, per definire le cause responsabili e il metodo più adeguato alla tutela dei beni storici [Mastrodicasa, 1993]. Il monitoraggio dei possibili parametri che influenzano tali processi può essere continuo nel tempo o per mezzo di metodologia discontinua che prevede l’utilizzo e la ripetizione di prove non distruttive. L’elevato costo di un eventuale processo continuo ha limitato significativamente la sua applicazione, riducendo lo studio all’analisi di pochi parametri derivanti dalle prove diagnostiche e spesso non del tutto adatti alla completa analisi della struttura. Il seguente lavoro di tesi è sviluppato all’interno del progetto SmooHS (Smart Monitoring of Historic Structures) nell’ambito del 7° Programma Quadro della Commissione Europea che si pone come obiettivo lo sviluppo di strumenti di monitoraggio innovativi ‘intelligenti’ e poco invasivi e modelli di degrado e la loro sperimentazione sul campo per verificarne l’effettiva efficacia attraverso il confronto con risultati di prove non distruttive. La normativa correlata a questo studio, “Norme Tecniche per le Costruzioni’ (D.M. 14/01/2008), evidenzia come ‘La conoscenza della costruzione storica in muratura è un presupposto fondamentale sia ai fini di un’attendibile valutazione della sicurezza sismica attuale sia per la scelta di un efficace intervento di miglioramento…. Si ha pertanto la necessità di affinare tecniche di analisi e interpretazione dei manufatti storici mediante fasi conoscitive dal diverso grado di attendibilità, anche in relazione al loro impatto. La conoscenza può, infatti, essere conseguita con diversi livelli di approfondimento, in funzione dell’accuratezza delle operazioni di rilievo, delle ricerche storiche, e delle indagini sperimentali. Tali operazioni saranno funzione degli obiettivi preposti e andranno a interessare tutto o in parte l’edificio, secondo la tipologia dell’intervento previsto’. L’utilizzo di ‘Tecniche diagnostiche non distruttive di tipo indiretto, quali prove soniche e ultrasoniche’ è preferibile poiché molto promettenti e hanno il pregio di poter essere utilizzate in modo diffuso con un relativo impatto sulla costruzione e costi relativamente contenuti. La non identificazione di una procedura univoca di prove non distruttive per ciascuna tipologia edilizia rende necessario uno studio di fattibilità di diverse tecniche per valutarne l’effettiva efficacia in base al risultato atteso. L’obiettivo di questo lavoro di tesi è stato lo studio sperimentale di valutazione dell’efficacia di alcune tecniche soniche in trasmissione, tomografia e prove soniche dirette, nel monitoraggio di provini precedentemente realizzati ad hoc nei laboratori LISG (Laboratorio di Ingegneria Strutturale e Geotecnica) del DICAM dell’Università di Bologna caratterizzati da presenze di discontinuità (vacui o inclusioni di polistirolo) o materiali differenti in determinate posizioni di geometria e localizzazione nota e diverse tessiture murarie (muratura di laterizio tradizionale, muratura a sacco, inclusioni lapidee). Il capitolo 1 presenta una descrizione generale delle murature, le cause principali di deterioramento e conseguenti dissesti. Presenta inoltre una finestra sulle prove diagnostiche. Nel capitolo 2 sono riportati alcuni esempi di applicazioni di tomografia e prove soniche e sviluppi di ricerca su strutture storiche lignee e murarie eseguite recentemente. Nel capitolo 3 sono presentati i provini oggetto di studio, la loro geometria, i difetti, le sezioni. Il capitolo 4 descrive i principi fisici delle prove soniche e grandezze caratteristiche e presenta la procedura di acquisizione e relative strumentazioni. I capitoli 5 e 6 riguardano lo studio sperimentale vero e proprio ottenuto attraverso l’utilizzo di tomografia sonica e prove dirette, con descrizione delle stazioni di prova, visualizzazione dei dati in tabelle per una semplice interpretazione, loro elaborazione e susseguente analisi approfondita, con valutazione dei risultati ottenuti e debite conclusioni. Il capitolo 7 presenta un confronto delle analisi comuni a entrambe le tipologie di prove soniche, visualizzazioni di istogrammi di paragone e considerazioni deducibili.
Resumo:
In questa tesi ci si propone lo studio dell'anello delle matrici quadrate di ordine n, su un campo, per arrivare a dimostrare che ha solo ideali banali pur non essendo un campo. Allo scopo si introducono le operazioni elementari e il procedimento di traduzione di tali operazioni con opportune moltiplicazioni per matrici dette elementari. Si considera inoltre il gruppo generale lineare arrivando a dimostrare che un particolare sottoinsieme delle matrici elementari è un generatore di tale gruppo.
Resumo:
Lo sviluppo negli ultimi decenni di strumentazioni sempre più pratiche, versatili, veloci ed economicamente accessibili, ha notevolmente incrementato la capacità delle aziende, in particolar modo quelle operanti nel settore dell'industria alimentare, nel cogliere le potenzialità di una tecnologia che applica rigore scientifico a una materia a lungo considerata liminale e di secondaria rilevanza, quale quella cromatica. A fronte di ciò, si è ritenuto opportuno introdurre strumenti di misura formalizzati a livello internazionale, atti a individuare e verificare parametri di colore, i quali attestassero la qualità della materia prima utilizzata, nonché riconducibili a una tecnologia di produzione di massa. L’attuale progetto deriva dalla necessità di un’azienda produttrice di concentrati in pasta e semi-lavorati in polvere per la gelateria e la pasticceria, di introdurre un sistema di misurazione oggettiva del colore, che vada a sostituirsi a una valutazione soggettiva, a lungo ritenuta come unico metodo valido di analisi. Il ruolo rivestito all’interno di tale azienda ha consentito, grazie anche al supporto fornito dal Controllo Qualità, la realizzazione di un elaborato finale di sintesi, contenente i risultati delle analisi colorimetriche condotte su alcune paste concentrate. A partire dunque dalla letteratura scientifica elaborata in materia, si è proceduto inizialmente, alla realizzazione di una parte generale riguardante la descrizione del colore, delle sue proprietà e manifestazioni, e dei metodi di misurazione, ripercorrendo le tappe dalla nascita delle prime teorie fino all’adozione di uno spazio di colore universale; una seconda sperimentale, in cui si elaborano- tramite software statistici (Anova , Spectra Magic Nx)- i parametri colorimetrici e il pH dei singoli campioni. In particolare, la determinazione del colore su paste concentrate, ha permesso di valutare in maniera oggettiva le variazioni di colore in termini di coordinate L*, a*, b*, che avvengono durante il periodo di conservazione (24-36 mesi). Partendo dai dati oggettivi di colore, sono state definite semplici equazioni che descrivono l'andamento dei parametri in funzione dei mesi di conservazione e del pH del prodotto. Nell’ottica del miglioramento della gestione della qualità delle aziende specializzate nella produzione di semilavorati-concentrati per le gelaterie, il presente lavoro ha fornito uno spunto per la realizzazione e l’applicazione di un sistema di controllo del colore durante la conservazione del prodotto; ha anche permesso di definire le linee per un sistema di analisi colorimetrica utile alla messa a punto di un database aziendale comprensivo d’indici, stime e annotazioni. Tale database dovrà essere mirato all’ottenimento di un sempre più alto livello di qualità del prodotto, suggerendo allo stesso tempo possibili interventi correttivi (maggior standardizzazione del colore e possibile definizione di un adeguato intervallo di tolleranza), ma anche a un miglioramento nella gestione di problematiche in fase di produzione e quindi, l’incremento della capacità produttiva con conseguente riduzione dei tempi di evasione degli ordini. Tale contributo ha consentito a delineare le future prospettive di sviluppo favorendo l’implementazione (nella realtà aziendale) di un approccio strumentale e quindi oggettivo, in relazione alle più comuni problematiche di tipo colorimetrico, al fine di migliorare il valore qualitativo del prodotto.
Resumo:
Le encefalopatie spongiformi trasmissibili (EST), o malattie da prioni, sono malattie neurodegenerative che colpiscono l'uomo e gli animali. Le più note tra le EST animali sono la scrapie della pecora e della capra, l’encefalopatia spongiforme bovina (BSE), la Sindrome del dimagrimento cronico (CWD) dei cervidi. Negli uomini ricordiamo la malattia di Creutzfeldt-Jakob (CJD) nelle sue diverse forme (sporadica, genetica, iatrogenica e variante). La dimostrazione che la variante della CJD (vCJD) sia causata dallo stesso agente eziologico della BSE, ha evidenziato il potenziale zoonotico di queste malattie. Le EST sono caratterizzate da tempi di incubazione estremamente lunghi ed esito invariabilmente fatale. Il momento patogenetico centrale comune a tutte queste malattie è rappresentato dalla modificazione conformazionale di una proteina cellulare denominata PrPC (proteina prionica cellulare) in una isoforma patologica denominata PrPSc, insolubile e caratterizzata da una parziale resistenza alle proteasi, che tende a depositarsi sotto forma di fibrille amiloidee nel SNC dei soggetti colpiti. La suscettibilità degli ovini alla scrapie è largamente influenzata dal genotipo del gene dell’ospite che codifica per la PrP (PRNP), e più precisamente da tre polimorfismi presenti ai codoni 136, 154 e 171. Questi si combinano in cinque principali alleli, ARQ, VRQ, AHQ, ARH e ARR, correlati a differenti gradi di suscettibilità alla malattia. Risultati ottenuti da un precedente studio d’infezione sperimentale di ovini di razza Sarda con scrapie classica (Vaccari G et al 2007), hanno suggeriscono l’ordine di suscettibilità ARQ>AHQ>ARH. L’allele ARR, è risultato invece associato ai più alti livelli di protezione dalla malattia. Dallo stesso studio di trasmissione sperimentale e da uno studio epidemiologico di tipo caso-controllo, è inoltre emerso che nella razza Sarda, ovini con l’allele ARQ, con sostituzione amminoacidica al codone 137 Metionina (M)/Treonina (T) (AT137RQ) o al 176 Asparagina (N)/Lisina (K) (ARQK176) in eterozigosi sono protetti dalla scrapie. Inoltre studi di trasmissione sperimentale della BSE in ovini della stessa razza con tre differenti genotipi (ARQ/ARQ, ARQ/ARR e ARR/ARR), hanno dimostrato come la BSE abbia un targeting genetico molto simile a quello della scrapie, evidenziando il genotipo ARQ/ARQ come il più suscettibile. L’obbiettivo della seguente tesi è stato quello di verificare se fosse possibile riprodurre in vitro la differente suscettibilità genetica degli ovini alle EST evidenziata in vivo, utilizzando il PMCA (Protein Misfolding Cyclic Amplification), la metodica ad oggi più promettente e di cui è stata dimostrata la capacità di riprodurre in vitro diverse proprietà biologiche dei prioni. La tecnica, attraverso cicli ripetuti di sonicazione/incubazione, permette la conversione in vitro della PrPC presente in un omogenato cerebrale (substrato), da parte di una quantità minima di PrPSc (inoculo) che funge da “innesco” della reazione. Si è voluto inoltre utilizzare il PMCA per indagare il livello di protezione in omozigosi di alleli rari per i quali, in vivo, si avevano evidenze di protezione dalla scrapie solo in eterozigosi, e per studiare la suscettibilità degli ovini alla BSE adattata in questa specie. È stata quindi testata in PMCA la capacità diversi substrati ovini recanti differenti genotipi, di amplificare la PrPSc dello stesso isolato di scrapie classica impiegato nel precedente studio in vivo o di un inoculo di BSE bovina. Inoltre sono stati saggiati in vitro due inoculi di BSE costituiti da omogenato cerebrale di due ovini sperimentalmente infettati con BSE (BSE ovina) e recanti due differenti genotipi (ARQ/ARQ e ARR/ARR). Per poter descrivere quantitativamente il grado di correlazione osservato i risultati ottenuti in vitro e i quelli riscontrati dallo studio di sperimentazione con scrapie, espressi rispettivamente come fattori di amplificazione e tempi d’incubazione registrati in vivo, sono stati analizzati con un modello di regressione lineare. Per quanto riguarda la scrapie, i risultati ottenuti hanno evidenziato come i genotipi associati in vivo a suscettibilità (ARQ/ARQ, ARQ/AHQ and AHQ/ARH) siano anche quelli in grado di sostenere in PMCA l’amplificazione della PrPSc, e come quelli associati a resistenza (ARQ/ARR and ARR/ARR) non mostrino invece nessuna capacità di conversione. Dall’analisi di regressione lineare è inoltre emerso come l’efficienza di amplificazione in vitro dei differenti genotipi testati sia inversamente proporzionale ai tempi d’incubazione registrati in vivo. Inoltre nessuna amplificazione è stata riscontrata utilizzando il substrato con genotipo raro ARQK176/ARQK176 suggerendo come anche questo possa essere associato a resistenza, almeno nei confronti dell’isolato di scrapie classica utilizzato. Utilizzando come inoculo in PMCA l’isolato di BSE bovina, è stato possibile riscontrare, nei tre genotipi analizzati (ARQ/ARQ, ARQ/ARR e ARR/ARR) un evidente amplificazione per il solo genotipo ARQ/ARQ, sottolineando anche in questo caso l’esistenza di una correlazione tra suscettibilità riscontrata in vivo e capacità di conversione in PMCA. I tre i substrati analizzati mostrano inoltre una buona efficienza di amplificazione, per altro simile, se si utilizza la PrPSc dell’inoculo di BSE sperimentalemente trasmessa agli ovini. Questi genotipi sembrerebbero dunque ugualmente suscettibili se esposti a BSE adattata alla specie ovina. I risultati di questa tesi indicano dunque una correlazione diretta tra la capacità di conversione della PrPC con il PMCA e la suscettibilità osservata in vivo per i differenti genotipi analizzati. Mostrano inoltre come il PMCA possa essere una valida alternativa agli studi di trasmissione in vivo e un rapido strumento utile non soltanto per testare, ma anche per predire la suscettibilità genetica degli ovini a diversi ceppi di EST, rappresentando un valido aiuto per l’individuazione di ulteriori genotipi resistenti, così da incrementare la variabilità genetica dei piani di selezione attuati per gli ovini per il controllo di queste malattie.
Resumo:
La legge n. 146 del 1990 ha istituito la Commissione di garanzia per l’attuazione della legge sullo sciopero nei servizi pubblici essenziali, un’authority deputata al controllo dell’effettivo bilanciamento del diritto di sciopero con gli altri diritti della persona di rango costituzionale nel caso dei servizi pubblici essenziali. Ad essa spettano alcuni poteri tra di loro eterogenei. Accanto a poteri propulsivi e sanzionatori, essa possiede poteri di tipo normativo. La legge prevede, infatti, che le prestazioni indispensabili e le altre misure necessarie al contemperamento siano determinate da accordi tra il datore di lavoro e le associazioni sindacali, mentre per il lavoro autonomo da codici di autoregolamentazione forniti da ognuna delle categorie interessate. Gli accordi e i codici di autoregolamentazione devono essere, comunque, sottoposti al vaglio della Commissione di garanzia la quale in ultimo stabilisce se essi siano idonei a realizzare il bilanciamento dei diritti in questione. Quando i soggetti indicati dalla legge non provvedano alla redazione dei suddetti atti, la Commissione interviene con l’emanazione di una provvisoria regolamentazione, la quale possiede natura di regolamento, giacchè partecipa dei caratteri della generalità ed astrattezza propri delle norme di legge. In effetti, anche altre authorities possiedono un potere normativo, che si sostanzia alle volte in un regolamento indipendente, altre in un regolamento simile ai regolamenti delegati ed altre al regolamento esecutivo. Poiché la legge n. 146 del 1990 prevede quali siano gli istituti idonei a realizzare il bilanciamento (preavviso, proclamazione scritta, procedure di raffreddamento e conciliazione, intervallo minimo, misure indicative delle prestazioni indispensabili), la provvisoria regolamentazione possiede i caratteri del regolamento esecutivo.