999 resultados para Dysidea robusta
Resumo:
Nei processi di progettazione e produzione tramite tecnologie di colata di componenti in alluminio ad elevate prestazioni, risulta fondamentale poter prevedere la presenza e la quantità di difetti correlabili a design non corretti e a determinate condizioni di processo. Fra le difettologie più comuni di un getto in alluminio, le porosità con dimensioni di decine o centinaia di m, note come microporosità, hanno un impatto estremamente negativo sulle caratteristiche meccaniche, sia statiche che a fatica. In questo lavoro, dopo un’adeguata analisi bibliografica, sono state progettate e messe a punto attrezzature e procedure sperimentali che permettessero la produzione di materiale a difettologia e microstruttura differenziata, a partire da condizioni di processo note ed accuratamente misurabili, che riproducessero la variabilità delle stesse nell’ambito della reale produzione di componenti fusi. Tutte le attività di progettazione delle sperimentazioni, sono state coadiuvate dall’ausilio di software di simulazione del processo fusorio che hanno a loro volta beneficiato di tarature e validazioni sperimentali ad hoc. L’apparato sperimentale ha dimostrato la propria efficacia nella produzione di materiale a microstruttura e difettologia differenziata, in maniera robusta e ripetibile. Utilizzando i risultati sperimentali ottenuti, si è svolta la validazione di un modello numerico di previsione delle porosità da ritiro e gas, ritenuto ad oggi allo stato dell’arte e già implementato in alcuni codici commerciali di simulazione del processo fusorio. I risultati numerici e sperimentali, una volta comparati, hanno evidenziato una buona accuratezza del modello numerico nella previsione delle difettologie sia in termini di ordini di grandezza che di gradienti della porosità nei getti realizzati.
Resumo:
Nell’ambito del presente lavoro sperimentale sono state prese in considerazione differenti tecniche, tradizionali ed innovative, per la determinazione del contenuto di acqua presente negli oli extravergine di oliva. Seppur presente nell'olio in quantità limitata, l'acqua é in grado di favorire la dissoluzione e veicolare componenti minori idrofilici (come le molecole a struttura fenolica e polifenolica) all'interno di micelle inverse che si creano nella matrice lipidica quando alla superficie acqua-olio si aggregano composti anfifilici (come i digliceridi, i monogliceridi, gli acidi grassi liberi, i fosfolipidi etc.) che danno luogo alla formazione di aggregati colloidali. I risultati ottenuti su un set di 60 campioni hanno evidenziato come esistano correlazioni positive e soddisfacenti tra le diverse metodiche analitiche tradizionali quali la titolazione titrimetrica di Karl Fisher e quelle gravimetriche per essiccamento in stufa o mediante termobilancia. La migliore correlazione in termini di R2 con valore pari a circa 0,82 è stata ottenuta tra i metodi Karl Fisher ed essiccamento in stufa, mentre per esempio quella tra i due metodi gravimetrici (stufa e termobilancia) ha fatto registrare un valore inferiore (0,70). Pur essendosi verificate delle soddisfacenti correlazioni tra le tre tecniche tradizionali, i valori del contenuto in acqua dei campioni si sono presentati variabili in funzione dell'utilizzo di una modalità di misurazione rispetto all'altra. Tale variabilità é funzione di diversi fattori: la difficoltà di determinare l'acqua fortemente legata nel caso dei metodi per essiccamento; la perdita in peso causata anche da altri componenti in grado di volatilizzare alle condizioni analitiche adottate; la possibilità di formazione di composti non originariamente presenti come risultato di modificazioni chimiche indotte dall'elevata temperatura. Il contenuto di acqua è stato quindi stimato anche mediante una tecnica innovativa a basso costo basata su misure dielettriche. Considerato che l’olio extravergine di oliva è noto essere un ottimo isolante, il fenomeno dielettrico osservato risulta essere di natura capacitiva. Il risultato di correlazione ottenuto su un set di 23 oli extravergini di oliva applicando in parallelo questa tecnica rapida e la misura gravimetrica con stufa (che é un metodo ISO), è da considerarsi soddisfacente, con un R2 pari anche in questo caso a 0,82. In conclusione, le tecniche attualmente utilizzate per la determinazione del contenuto di acqua in oli extravergine di oliva risultano tra loro correlate. Considerando che tali tecniche tradizionali sono dispendiose o in termini di tempo (gravimetrico mediante stufa) o in termini di consumo di reagenti e solventi (titrimetrico con reattivo di Karl Fischer), il nuovo approccio sperimentato mediante misure capacitive può essere considerato molto interessante anche se, sicuramente, sarà da applicare ad un numero più ampio di campioni per rendere l'evidenza sperimentale più robusta.
Resumo:
This Ph.D. thesis focuses on the investigation of some chemical and sensorial analytical parameters linked to the quality and purity of different categories of oils obtained by olives: extra virgin olive oils, both those that are sold in the large retail trade (supermarkets and discounts) and those directly collected at some Italian mills, and lower-quality oils (refined, lampante and “repaso”). Concurrently with the adoption of traditional and well-known analytical procedures such as gas chromatography and high-performance liquid chromatography, I carried out a set-up of innovative, fast and environmentally-friend methods. For example, I developed some analytical approaches based on Fourier transform medium infrared spectroscopy (FT-MIR) and time domain reflectometry (TDR), coupled with a robust chemometric elaboration of the results. I investigated some other freshness and quality markers that are not included in official parameters (in Italian and European regulations): the adoption of such a full chemical and sensorial analytical plan allowed me to obtain interesting information about the degree of quality of the EVOOs, mostly within the Italian market. Here the range of quality of EVOOs resulted very wide, in terms of sensory attributes, price classes and chemical parameters. Thanks to the collaboration with other Italian and foreign research groups, I carried out several applicative studies, especially focusing on the shelf-life of oils obtained by olives and on the effects of thermal stresses on the quality of the products. I also studied some innovative technological treatments, such as the clarification by using inert gases, as an alternative to the traditional filtration. Moreover, during a three-and-a-half months research stay at the University of Applied Sciences in Zurich, I also carried out a study related to the application of statistical methods for the elaboration of sensory results, obtained thanks to the official Swiss Panel and to some consumer tests.
Resumo:
I test di qualifica a vibrazioni vengono usati in fase di progettazione di un componente per verificarne la resistenza meccanica alle sollecitazioni dinamiche (di natura vibratoria) applicate durante la sua vita utile. La durata delle vibrazioni applicate al componente durante la sua vita utile (migliaia di ore) deve essere ridotta al fine di realizzare test fattibili in laboratorio, condotti in genere utilizzando uno shaker elettrodinamico. L’idea è quella di aumentare l’intensità delle vibrazioni riducendone la durata. Esistono diverse procedure di Test Tailoring che tramite un metodo di sintesi definiscono un profilo vibratorio da applicare in laboratorio a partire dalle reali vibrazioni applicate al componente: una delle metodologie più comuni si basa sull’equivalenza del danno a fatica prodotto dalle reali vibrazioni e dalle vibrazioni sintetizzate. Questo approccio è piuttosto diffuso tuttavia all’autore non risulta presente nessun riferimento in letteratura che ne certifichi la validità tramite evidenza sperimentalmente. L’obiettivo dell’attività di ricerca è stato di verificare la validità del metodo tramite una campagna sperimentale condotta su opportuni provini. Il metodo viene inizialmente usato per sintetizzare un profilo vibratorio (random stazionario) avente la stessa durata di un profilo vibratorio non stazionario acquisito in condizioni reali. Il danno a fatica prodotto dalla vibrazione sintetizzata è stato confrontato con quello della vibrazione reale in termini di tempo di rottura dei provini. I risultati mostrano che il danno prodotto dalla vibrazione sintetizzata è sovrastimato, quindi l’equivalenza non è rispettata. Sono stati individuati alcuni punti critici e sono state proposte alcune modifiche al metodo per rendere la teoria più robusta. Il metodo è stato verificato con altri test e i risultati confermano la validità del metodo a condizione che i punti critici individuati siano correttamente analizzati.
Resumo:
L’obiettivo dell’elaborato è mostrare come, partendo da una robusta base teorica nelle discipline del Project Management e del Business Process Reengineering, sia possibile ridefinire un sistema di gestione dei progetti (a livello singolo e di aggregato) e sviluppare, presso il personale coinvolto, le competenze necessarie a sostenere autonomamente ed a migliorare il sistema così creato. La reingegnerizzazione della progettazione nell’azienda in esame si è sviluppata nell’arco di un quadriennio: nel 2010 è stata concretizzata la prima release dei processi di gestione del progetto singolo e dell’aggregato, nel 2011 è maturata la seconda release, mentre nel biennio 2012-2013 si sono “congelati” i risultati ottenuti e si è sviluppata l’autonomia dei Project Manager interni e del Project Management Office. Dall’analisi è emersa l’importanza di un solido approccio metodologico negli interventi di innovazione organizzativa.
Resumo:
Fino dagli albori della metodica scientifica, l’osservazione e la vista hanno giocato un ruolo fondamentale. La patologia è una scienza visiva, dove le forme, i colori, le interfacce e le architetture di organi, tessuti, cellule e componenti cellulari guidano l’occhio del patologo e ne indirizzano la scelta diagnostico-classificativa. L’osservazione del preparato istologico in microscopia ottica si attua mediante l’esame e la caratterizzazione di anomalie ad ingrandimenti progressivamente crescenti, a diverse scale spaziali, che partono dalla valutazione dell’assetto architettonico sovracellulare, per poi spostarsi ad investigare e descrivere le cellule e le peculiarità citomorfologiche delle stesse. A differenza di altri esami di laboratorio che sono pienamente quantificabili, l’analisi istologica è intrinsecamente soggettiva, e quindi incline ad un alto grado di variabilità nei risultati prodotti da differenti patologi. L’analisi d’immagine, l’estrazione da un’immagine digitale di contenuti utili, rappresenta una metodica oggettiva, valida e robusta ormai largamente impiegata a completamento del lavoro del patologo. Si sottolinea come l’analisi d’immagine possa essere vista come fase descrittiva quantitativa di preparati macroscopici e microscopici che poi viene seguita da una interpretazione. Nuovamente si sottolinea come questi descrittori siano oggettivi, ripetibili e riproducibili, e non soggetti a bassa concordanza inter operatore. La presente tesi si snoda attraverso un percorso concettuale orientato ad applicazioni di analisi d’immagine e patologia quantitativa che parte dalle applicazioni più elementari (densità, misure lineari), per arrivare a nozioni più avanzate, quali lo studio di complessità delle forme mediante l’analisi frattale e la quantificazione del pattern spaziale di strutture sovracellulari.
Resumo:
La nostra tesi propone un progetto di riqualificazione funzionale ed energetica di una porzione dell’area dismessa delle Ex Officine Reggiane a Reggio Emilia che comprende uno spazio scoperto di circa 42.500 m2 e un fabbricato, nel quale proponiamo di realizzare il museo delle officine, spazi per esposizioni temporanee e il nuovo polo archivistico di Reggio Emilia. Le Officine Meccaniche Reggiane sono state un polo industriale di particolare rilevanza a livello nazionale ed internazionale, diventando negli anni ’40 la quarta potenza industriale italiana dopo Fiat,Ansaldo e Breda. Dismesse dal 2009, si presentano oggi come un’area abbandonata di ben 260.000 m2 nella quale convivono la memoria e la speranza futura di rilancio della città di Reggio Emilia nel panorama europeo. Sulle tracce dei progetti già messi in atto dall’Amministrazione comunale, abbiamo fornito una proposta progettuale che consideri le vocazioni funzionali dell’area e le strategie energetiche possibili per rendere il progetto sostenibile sia dal punto di vista ambientale che dal punto di vista economico. Il lavoro è partito dalla definizione di un quadro conoscitivo dell’area attraverso una prima fase di analisi a livello territoriale e microclimatico servendosi per queste ultime del software di simulazione in regime dinamico ENVI-met. Questa prima fase si è conclusa con l’elaborazione di un masterplan, in seguito al quale ci siamo soffermate sul progetto di riqualificazione del capannone 15 e del grande spazio vuoto antistante ad esso. L’intervento sul costruito si può riassumere in tre parole chiave: conservare, aggiornare, integrare. Abbiamo scelto infatti di mantenere la robusta e ritmata struttura in acciaio, ripensare l’involucro edilizio in termini di una maggiore efficienza energetica e confinare i locali climatizzati in volumi autoportanti, garantendo, nell’atrio, condizioni di comfort termico accettabili unicamente attraverso strategie energetiche passive. Per verificare l’effettiva opportunità della soluzione ipotizzata ci siamo servite del software di simulazione fluidodinamica IES VE, il quale, attraverso la simulazione oraria del cambiamento dei parametri ambientali più rilevanti e degli indicatori di benessere (PMV, Comfort index, PPD..), ha confermato le nostre aspettative verificando che non è necessario intervenire con l’introduzione di sistemi di climatizzazione convenzionale. Per quanto riguarda i padiglioni entro i quali sono pensate le attività di servizio e supporto al museo e l’archivio, è stata verificata la soddisfacente prestazione energetica raggiunta attraverso l’utilizzo del software Termolog Epix5, il quale ha attestato che essi rientrano nella classe A con un consumo energetico di 4,55 kWh/m3annuo.
Resumo:
A full description of the subadult male holotype of the diastylid Ektonodiastylis robusta, new genus, new species, is presented, as well as of the adult male and adult female of E. nimia. Ektonodiastylis nimia is transferred from Brachydiastylis to Ektonodiastylis. The family definition of Diastylidae is expanded. The implications of this expansion on the systematics of the Cumacea in general, and Diastylidae and Gynodiastylidae in particular, are discussed.
Resumo:
Composition and distribution of megabenthic communities around Svalbard were investigated in June/July 1991 with 20 Agassiz trawl and 5 bottom trawl hauls in depths between 100 and 2100 m. About 370 species, ranging from sponges to fish, were identified in the catches. Species numbers per station ranged from 21 to 86. Brittle stars, such as Ophiacantha bidentata, Ophiura sarsi and Ophiocten sericeum, were most important in terms of constancy and relative abundance in the catches. Other prominent faunal elements were eunephthyid alcyonarians, bivalves, shrimps, sea stars and fish (Gadidae, Zoarcidae, Cottidae). Multivariate analyses of the species and environmental data sets showed that the spatial distribution of the megabenthos was characterized by a pronounced depth zonation: abyssal, bathyal, off-shore shelf and fjordic communities were discriminated. However, a gradient in sediment properties, especially the organic carbon content, seemed to superimpose on the bathymetric pattern. Both main factors are interpreted as proxies of the average food availability, which is, hence, suggested to have the strongest influence in structuring megabenthic communities off Svalbard.
Resumo:
Benthic foraminifers of the Coniacian-Santonian through the Paleocene were recovered from a continuous pelagic carbonate section from Hole 516F on the Rio Grande Rise. Sixty-five genera and 153 species have been identified, most of which have been reported from other localities. Bathyal depths are reflected in the benthic assemblages dominated by gavelinellids (Gavelinella beccariiformis, G. velascoensis), Nuttallides truempyi, and various gyroidinids and buliminids. Rapid subsidence during the Coniacian-Santonian from nearshore to upper to middle bathyal depths was followed by much reduced subsidence, with the Campanian-Paleocene interval accumulating at middle bathyal to lower bathyal depths. A census study based on detailed sampling reveals major changes in benthic faunal composition at the Cretaceous/Tertiary boundary transition. It was a time of rapid turnover, with the extinctions of numerous species and the introduction of many new species. Overall, species diversity decreases about 20%, and approximately one-third of latest Maestrichtian species do not survive to the end of the Cretaceous. This shift indicates a significant environmental change in the deep sea, the precise nature of which is not apparent from the foraminifers or their enclosing sediments.
Resumo:
Radiolaria were studied in 19 manganese nodules raised from the bottom. The nodules occurred mainly on the surface of thin Quaternary sediments covering Tertiary deposits of various ages (Middle Eocene to Early Miocene). Radiolaria in nodule cores and in inner and surface layers were studied. We found 85 radiolaria species and groups of species. Usually 1-4 to 6-19 radiolaria species were detected in each of the samples. Species belonging to Middle Eocene, Late Miocene to Early Oligocene, and Oligocene to Early Miocene were found. Rare Neogene species were revealed only in fractured surface layers. Age of the nodules is mainly Oligocene. Seismic waves cause sediment vibration, loosening disintegration, and removal of suspension by bottom currents. The vibration effect causes ancient nodules to float up to the surface of Quaternary sediment. This hypothesis suggests the reason for characteristics of the Clarion-Clipperton zone: regional stratigraphic hiatus, accumulation of residual fields of nodules, and the ''floating up'' of nodules to the surface of the Quaternary sediments.
Resumo:
Ocean Drilling Program Leg 167 represents the first time since 1978 that the North American Pacific margin was drilled to study ocean history. More than 7500 m of Quaternary to middle Miocene (14 Ma) sediments were recovered from 13 sites, representing the most complete stratigraphic sequence on the California margin. Diatoms are found in most samples in variable abundance and in a moderately well-preserved state throughout the sequence, and they are often dominated by robust, dissolution-resistant species. The Neogene North Pacific diatom zonation of Yanagisawa and Akiba (1998, doi:10.5575/geosoc.104.395) best divides the Miocene to Quaternary sequences, and updated ages of diatom biohorizons estimated based on the geomagnetic polarity time scale of Cande and Kent (1995, doi:10.1029/94JB03098) are slightly revised to adjust the differences between the other zonations. Most of the early middle Miocene through Pleistocene diatom datum levels that have been proven to be of stratigraphic utility in the North Pacific appear to be nearly isochronous within the level of resolution constrained by sample spacing. The assemblages are characterized by species typical of middle-to-high latitudes and regions of high surface-water productivity, predominantly by Coscinodiscus marginatus, Stephanopyxis species, Proboscia barboi, and Thalassiothrix longissima. Latest Miocene through Pliocene assemblages in the region of the California Current, however, are intermediate between those of subarctic and subtropical areas. As a result, neither the existing tropical nor the subarctic (high latitude) zonal schemes were applicable for this region. An interval of pronounced diatom dissolution detected throughout the Pliocene sequence apparently correspond to a relatively warmer paleoceanographic condition resulting in a slackening of the southward flow of the California Current.