895 resultados para progetto logiche monoscocca shell stress lines analysis architettura


Relevância:

40.00% 40.00%

Publicador:

Resumo:

Nel presente elaborato viene riassunta in 4 brevi capitoli la mia attività di tesi, svolta nell’ambito del progetto Formula SAE® dell’Università di Bologna nell’anno 2010. Il progetto ha consistito nella realizzazione di una vettura monoposto, con l’obiettivo di far competere la stessa negli eventi previsti dalla SAE® (Society of Automotive Engineer), insieme alle vetture progettate e costruite da altri atenei di tutto il mondo. In tali eventi, una serie di giudici del settore auto-motive valuta la bontà del progetto, ovvero della vettura, che sarà sottoposta ad una serie di prove statiche e dinamiche. Nella seguente trattazione si narra quindi il percorso progettuale e di realizzazione del telaio della vettura, ovvero della sua struttura portante principale. Il progetto infatti, nell’ambito del team UniBo Motorsport, mi ha visto impegnato come “Responsabile Telaio” oltre che come “Responsabile in Pista” durante le prove su strada della vettura, svolte a valle della realizzazione. L’obbiettivo principale di un telaio di vettura da corsa è quello di realizzare una struttura che colleghi rigidamente tra loro i gruppi sospensivi anteriore e posteriore e che preveda anche la possibilità di ancorare tutti i componenti dei sistemi ausiliari di cui la vettura deve essere equipaggiata. Esistono varie tipologie di telai per autovettura ma quelle più adatte ad equipaggiare una vettura da competizione di tipo Formula, sono sicuramente il traliccio in tubi (“space frame”) e la monoscocca in fibra di carbonio. Il primo è sicuramente quello più diffuso nell’ambito della Formula Student grazie alla sua maggior semplicità progettuale e realizzativa ed ai minor investimenti economici che richiede. I parametri fondamentali che caratterizzano un telaio vettura da competizione sono sicuramente la massa e la rigidezza. La massa dello chassis deve essere ovviamente il più bassa possibile in quanto quest, costituisce generalmente il terzo contributo più importante dopo pilota e motore alla massa complessiva del veicolo. Quest’ultimo deve essere il più leggero possibile per avere un guidabilità ed una performance migliori nelle prove dinamiche in cui dovrà impegnarsi. Per quanto riguarda la rigidezza di un telaio, essa può essere distinta in rigidezza flessionale e rigidezza torsionale: di fatto però, solo la rigidezza torsionale va ad influire sui carichi che si trasferiscono agli pneumatici della vettura, pertanto quando si parla di rigidezza di un telaio, ci si riferisce alla sua capacità di sopportare carichi di tipo torsionale. Stabilire a priori un valore adeguato per la rigidezza torsionale di un telaio è impossibile. Tale valore dipende infatti dal tipo di vettura e dal suo impiego. In una vettura di tipo Formula quale quella oggetto del progetto, la rigidezza torsionale del telaio deve essere tale da garantire un corretto lavoro delle sospensioni: gli unici cedimenti elastici causati dalle sollecitazioni dinamiche della vettura devono essere quelli dovuti agli elementi sospensivi (ammortizzatori). In base a questo, come indicazione di massima, si può dire che un valore di rigidezza adeguato per un telaio deve essere un multiplo della rigidezza totale a rollio delle sospensioni. Essendo questo per l’Università di Bologna il primo progetto nell’ambito della Formula SAE® e non avendo quindi a disposizione nessun feed-back da studi o vetture di anni precedenti, per collocare in modo adeguato il pilota all’interno della vettura, in ottemperanza anche con i requisiti di sicurezza dettati dal regolamento, si è deciso insieme all’esperto di ergonomia del team di realizzare una maquette fisica in scala reale dell’abitacolo. Questo ha portato all’individuazione della corretta posizione del pilota e al corretto collocamento dei comandi, con l’obbiettivo di massimizzare la visibilità ed il confort di guida della vettura. Con questo primo studio quindi è stata intrapresa la fase progettuale vera e propria del telaio, la quale si è svolta in modo parallelo ma trasversale a quella di tutti gli altri sistemi principali ed ausiliari di cui è equipaggiata la vettura. In questa fase fortemente iterativa si vanno a cercare non le soluzioni migliori ma quelle “meno peggio”: la coperta è sempre troppo corta e il compromesso la fa da padrone. Terminata questa fase si è passati a quella realizzativa che ha avuto luogo presso l’azienda modenese Marchesi & C. che fin dal 1965 si è occupata della realizzazione di telai da corsa per importanti aziende del settore automobilistico. Grazie al preziosissimo supporto dell’azienda, a valle della realizzazione, è stato possibile condurre una prova di rigidezza sul telaio completo della vettura. Questa, oltre a fornire il valore di rigidezza dello chassis, ha permesso di identificare le sezioni della struttura più cedevoli, fornendo una valida base di partenza per l’ottimizzazione di telai per vetture future. La vettura del team UniBo Motorsport ha visto il suo esordio nell’evento italiano della Formula SAE® tenutosi nel circuito di Varano de Melegari nella prima settimana di settembre, chiudendo con un ottimo 16esimo posto su un totale di 55 partecipanti. Il team ha partecipato inoltre alla Formula Student Spain tenutasi sul famoso circuito di Montmelò alla fine dello stesso mese, raggiungendo addirittura il podio con il secondo posto tra i 18 partecipanti. La stagione si chiude quindi con due soli eventi all’attivo della vettura, ma con un notevole esordio ed un ottimo secondo posto assoluto. L’ateneo di Bologna si inserisce al sessantasettesimo posto nella classifica mondiale, come seconda università italiana.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Oggetto della tesi di laurea è il recupero di Villa Rasponi a Savignano sul Rubicone, un bene storico complesso composto da elementi di varia natura: architettonici e vegetali, di differente pregio, dalla residenza settecentesca agli annessi agricoli di servizio, al parco. Le funzioni d’uso attuali rarefatte e strettamente comuni a quelle originarie, non sono più proponibili per poter garantire la sopravvivenza e la conservazione del complesso. Questo da un punto di vista puramente economico, per l’impegno in termini finanziari che un sito di tali dimensioni richiede, a livello gestionale e circostanziale. Come intervenire su un manufatto di questa natura, tutelandolo, riqualificandolo dal punto di vista architettonico e paesaggistico e, nello stesso tempo, reinserendolo in maniera attiva in un contesto urbano e territoriale dal quale negli anni si è progressivamente distaccato e isolato, chiudendosi nell’accezione di residenza privata? Il progetto, lavorando a vari livelli e confrontandosi con differenti campi disciplinari, dal restauro di un parco storico “firmato” da Pietro Porcinai, all’inserimento di nuovi elementi architettonici, all’analisi di fattibilità finanziaria, si pone principalmente due obiettivi: 1) da un lato intervenire materialmente sul manufatto restaurando gli edifici, anche attraverso la definizione di funzioni che ne permettano la sopravvivenza, e manutenendo il parco storico. In questo senso l’aspetto su cui si insiste maggiormente è il rispetto e la valorizzazione del complesso villa–parco–giardino-annessi come unicum, che assume pregio nella sua totalità e integrità; 2) dall’altro, tenuto conto delle dimensioni, dell’importanza storica, architettonica, culturale e paesaggistica del sito, il progetto intende estendere la sua valenza anche a un intorno in primo luogo locale e poi più ampio, diventando punto di riferimento e polo attrattivo, così come lo era stato nel passato, all’epoca nella quale in esso viveva la principessa Luisa Murat. Non ci si limita dunque a considerare il caso isolato, ma si tiene conto del fatto che la Villa Rasponi sorge all’interno di un contesto, quello della Romagna, di straordinaria ricchezza e molteplicità di espressioni artistiche, architettoniche, naturalistiche che costituiscono un patrimonio di valore, in gran parte scarsamente conosciuto e per nulla. Da qui l’idea di utilizzare una porzione di paesaggio come vetrina e contenitore di informazioni su tutta l’eredità culturale romagnola, legata ad un nuovo modo di intendere il luogo, come contesto che incarna la rete di significati all’interno dei quali le azioni degli uomini diventano fatti culturali. Il complesso della Villa Rasponi, per le sue connotazioni storiche, paesaggistiche, fisiche e posizionali, diventa la concretizzazione di tale idea. Dunque, una porzione di paesaggio che si fa strumento fisico e concettuale, di comunicazione, per trasmettere, valorizzare e promuovere il patrimonio naturale, architettonico e culturale di tutto il territorio in cui è inserito, diventandone icona e sintesi.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

In such territories where food production is mostly scattered in several small / medium size or even domestic farms, a lot of heterogeneous residues are produced yearly, since farmers usually carry out different activities in their properties. The amount and composition of farm residues, therefore, widely change during year, according to the single production process periodically achieved. Coupling high efficiency micro-cogeneration energy units with easy handling biomass conversion equipments, suitable to treat different materials, would provide many important advantages to the farmers and to the community as well, so that the increase in feedstock flexibility of gasification units is nowadays seen as a further paramount step towards their wide spreading in rural areas and as a real necessity for their utilization at small scale. Two main research topics were thought to be of main concern at this purpose, and they were therefore discussed in this work: the investigation of fuels properties impact on gasification process development and the technical feasibility of small scale gasification units integration with cogeneration systems. According to these two main aspects, the present work was thus divided in two main parts. The first one is focused on the biomass gasification process, that was investigated in its theoretical aspects and then analytically modelled in order to simulate thermo-chemical conversion of different biomass fuels, such as wood (park waste wood and softwood), wheat straw, sewage sludge and refuse derived fuels. The main idea is to correlate the results of reactor design procedures with the physical properties of biomasses and the corresponding working conditions of gasifiers (temperature profile, above all), in order to point out the main differences which prevent the use of the same conversion unit for different materials. At this scope, a gasification kinetic free model was initially developed in Excel sheets, considering different values of air to biomass ratio and the downdraft gasification technology as particular examined application. The differences in syngas production and working conditions (process temperatures, above all) among the considered fuels were tried to be connected to some biomass properties, such elementary composition, ash and water contents. The novelty of this analytical approach was the use of kinetic constants ratio in order to determine oxygen distribution among the different oxidation reactions (regarding volatile matter only) while equilibrium of water gas shift reaction was considered in gasification zone, by which the energy and mass balances involved in the process algorithm were linked together, as well. Moreover, the main advantage of this analytical tool is the easiness by which the input data corresponding to the particular biomass materials can be inserted into the model, so that a rapid evaluation on their own thermo-chemical conversion properties is possible to be obtained, mainly based on their chemical composition A good conformity of the model results with the other literature and experimental data was detected for almost all the considered materials (except for refuse derived fuels, because of their unfitting chemical composition with the model assumptions). Successively, a dimensioning procedure for open core downdraft gasifiers was set up, by the analysis on the fundamental thermo-physical and thermo-chemical mechanisms which are supposed to regulate the main solid conversion steps involved in the gasification process. Gasification units were schematically subdivided in four reaction zones, respectively corresponding to biomass heating, solids drying, pyrolysis and char gasification processes, and the time required for the full development of each of these steps was correlated to the kinetics rates (for pyrolysis and char gasification processes only) and to the heat and mass transfer phenomena from gas to solid phase. On the basis of this analysis and according to the kinetic free model results and biomass physical properties (particles size, above all) it was achieved that for all the considered materials char gasification step is kinetically limited and therefore temperature is the main working parameter controlling this step. Solids drying is mainly regulated by heat transfer from bulk gas to the inner layers of particles and the corresponding time especially depends on particle size. Biomass heating is almost totally achieved by the radiative heat transfer from the hot walls of reactor to the bed of material. For pyrolysis, instead, working temperature, particles size and the same nature of biomass (through its own pyrolysis heat) have all comparable weights on the process development, so that the corresponding time can be differently depending on one of these factors according to the particular fuel is gasified and the particular conditions are established inside the gasifier. The same analysis also led to the estimation of reaction zone volumes for each biomass fuel, so as a comparison among the dimensions of the differently fed gasification units was finally accomplished. Each biomass material showed a different volumes distribution, so that any dimensioned gasification unit does not seem to be suitable for more than one biomass species. Nevertheless, since reactors diameters were found out quite similar for all the examined materials, it could be envisaged to design a single units for all of them by adopting the largest diameter and by combining together the maximum heights of each reaction zone, as they were calculated for the different biomasses. A total height of gasifier as around 2400mm would be obtained in this case. Besides, by arranging air injecting nozzles at different levels along the reactor, gasification zone could be properly set up according to the particular material is in turn gasified. Finally, since gasification and pyrolysis times were found to considerably change according to even short temperature variations, it could be also envisaged to regulate air feeding rate for each gasified material (which process temperatures depend on), so as the available reactor volumes would be suitable for the complete development of solid conversion in each case, without even changing fluid dynamics behaviour of the unit as well as air/biomass ratio in noticeable measure. The second part of this work dealt with the gas cleaning systems to be adopted downstream the gasifiers in order to run high efficiency CHP units (i.e. internal engines and micro-turbines). Especially in the case multi–fuel gasifiers are assumed to be used, weightier gas cleaning lines need to be envisaged in order to reach the standard gas quality degree required to fuel cogeneration units. Indeed, as the more heterogeneous feed to the gasification unit, several contaminant species can simultaneously be present in the exit gas stream and, as a consequence, suitable gas cleaning systems have to be designed. In this work, an overall study on gas cleaning lines assessment is carried out. Differently from the other research efforts carried out in the same field, the main scope is to define general arrangements for gas cleaning lines suitable to remove several contaminants from the gas stream, independently on the feedstock material and the energy plant size The gas contaminant species taken into account in this analysis were: particulate, tars, sulphur (in H2S form), alkali metals, nitrogen (in NH3 form) and acid gases (in HCl form). For each of these species, alternative cleaning devices were designed according to three different plant sizes, respectively corresponding with 8Nm3/h, 125Nm3/h and 350Nm3/h gas flows. Their performances were examined on the basis of their optimal working conditions (efficiency, temperature and pressure drops, above all) and their own consumption of energy and materials. Successively, the designed units were combined together in different overall gas cleaning line arrangements, paths, by following some technical constraints which were mainly determined from the same performance analysis on the cleaning units and from the presumable synergic effects by contaminants on the right working of some of them (filters clogging, catalysts deactivation, etc.). One of the main issues to be stated in paths design accomplishment was the tars removal from the gas stream, preventing filters plugging and/or line pipes clogging At this scope, a catalytic tars cracking unit was envisaged as the only solution to be adopted, and, therefore, a catalytic material which is able to work at relatively low temperatures was chosen. Nevertheless, a rapid drop in tars cracking efficiency was also estimated for this same material, so that an high frequency of catalysts regeneration and a consequent relevant air consumption for this operation were calculated in all of the cases. Other difficulties had to be overcome in the abatement of alkali metals, which condense at temperatures lower than tars, but they also need to be removed in the first sections of gas cleaning line in order to avoid corrosion of materials. In this case a dry scrubber technology was envisaged, by using the same fine particles filter units and by choosing for them corrosion resistant materials, like ceramic ones. Besides these two solutions which seem to be unavoidable in gas cleaning line design, high temperature gas cleaning lines were not possible to be achieved for the two larger plant sizes, as well. Indeed, as the use of temperature control devices was precluded in the adopted design procedure, ammonia partial oxidation units (as the only considered methods for the abatement of ammonia at high temperature) were not suitable for the large scale units, because of the high increase of reactors temperature by the exothermic reactions involved in the process. In spite of these limitations, yet, overall arrangements for each considered plant size were finally designed, so that the possibility to clean the gas up to the required standard degree was technically demonstrated, even in the case several contaminants are simultaneously present in the gas stream. Moreover, all the possible paths defined for the different plant sizes were compared each others on the basis of some defined operational parameters, among which total pressure drops, total energy losses, number of units and secondary materials consumption. On the basis of this analysis, dry gas cleaning methods proved preferable to the ones including water scrubber technology in al of the cases, especially because of the high water consumption provided by water scrubber units in ammonia adsorption process. This result is yet connected to the possibility to use activated carbon units for ammonia removal and Nahcolite adsorber for chloride acid. The very high efficiency of this latter material is also remarkable. Finally, as an estimation of the overall energy loss pertaining the gas cleaning process, the total enthalpy losses estimated for the three plant sizes were compared with the respective gas streams energy contents, these latter obtained on the basis of low heating value of gas only. This overall study on gas cleaning systems is thus proposed as an analytical tool by which different gas cleaning line configurations can be evaluated, according to the particular practical application they are adopted for and the size of cogeneration unit they are connected to.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

ABSTRACT (italiano) Con crescente attenzione riguardo al problema della sicurezza di ponti e viadotti esistenti nei Paesi Bassi, lo scopo della presente tesi è quello di studiare, mediante la modellazione con Elementi Finiti ed il continuo confronto con risultati sperimentali, la risposta in esercizio di elementi che compongono infrastrutture del genere, ovvero lastre in calcestruzzo armato sollecitate da carichi concentrati. Tali elementi sono caratterizzati da un comportamento ed una crisi per taglio, la cui modellazione è, da un punto di vista computazionale, una sfida piuttosto ardua, a causa del loro comportamento fragile combinato a vari effetti tridimensionali. La tesi è incentrata sull'utilizzo della Sequentially Linear Analysis (SLA), un metodo di soluzione agli Elementi Finiti alternativo rispetto ai classici approcci incrementali e iterativi. Il vantaggio della SLA è quello di evitare i ben noti problemi di convergenza tipici delle analisi non lineari, specificando direttamente l'incremento di danno sull'elemento finito, attraverso la riduzione di rigidezze e resistenze nel particolare elemento finito, invece dell'incremento di carico o di spostamento. Il confronto tra i risultati di due prove di laboratorio su lastre in calcestruzzo armato e quelli della SLA ha dimostrato in entrambi i casi la robustezza del metodo, in termini di accuratezza dei diagrammi carico-spostamento, di distribuzione di tensioni e deformazioni e di rappresentazione del quadro fessurativo e dei meccanismi di crisi per taglio. Diverse variazioni dei più importanti parametri del modello sono state eseguite, evidenziando la forte incidenza sulle soluzioni dell'energia di frattura e del modello scelto per la riduzione del modulo elastico trasversale. Infine è stato effettuato un paragone tra la SLA ed il metodo non lineare di Newton-Raphson, il quale mostra la maggiore affidabilità della SLA nella valutazione di carichi e spostamenti ultimi insieme ad una significativa riduzione dei tempi computazionali. ABSTRACT (english) With increasing attention to the assessment of safety in existing dutch bridges and viaducts, the aim of the present thesis is to study, through the Finite Element modeling method and the continuous comparison with experimental results, the real response of elements that compose these infrastructures, i.e. reinforced concrete slabs subjected to concentrated loads. These elements are characterized by shear behavior and crisis, whose modeling is, from a computational point of view, a hard challenge, due to their brittle behavior combined with various 3D effects. The thesis is focused on the use of Sequentially Linear Analysis (SLA), an alternative solution technique to classical non linear Finite Element analyses that are based on incremental and iterative approaches. The advantage of SLA is to avoid the well-known convergence problems of non linear analyses by directly specifying a damage increment, in terms of a reduction of stiffness and strength in the particular finite element, instead of a load or displacement increment. The comparison between the results of two laboratory tests on reinforced concrete slabs and those obtained by SLA has shown in both the cases the robustness of the method, in terms of accuracy of load-displacements diagrams, of the distribution of stress and strain and of the representation of the cracking pattern and of the shear failure mechanisms. Different variations of the most important parameters have been performed, pointing out the strong incidence on the solutions of the fracture energy and of the chosen shear retention model. At last a confrontation between SLA and the non linear Newton-Raphson method has been executed, showing the better reliability of the SLA in the evaluation of the ultimate loads and displacements, together with a significant reduction of computational times.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Gli organismi biologici mostrano ricorrenti dinamiche di auto-organizzazione nei processi morfogenetici che sono alla base di come la materia acquisisce gerarchia e organizzazione.L’omeostasi è la condizione con la quale un corpo raggiunge il proprio equilibrio (termico, pressione, ecc.); un processo attraverso il quale questi sistemi stabilzzano le reazioni fisiologiche. Una delle caratteristiche fondamentali esibite da tali organismi è la capacità della materia di instaurare processi di auto-organizzazione, responsabile dei processi di ottimizzazione che guidano all’uso efficiente dell’energia nella lotta per la sopravvivenza. Questa ottimizzazione non mira al raggiungimento di un risultato globale deterministico e “chiuso” (precedentemente stabilito e poi perseguito ad ogni costo), quanto piuttosto al raggiungimento di un’efficienza di processi locali con obiettivi multipli e necessità divergenti; tali processi interagiscono organizzando sistemi nei quali proprietà peculiari uniche emergono dalle interazioni descritte. Le esigenze divergenti non sono negoziate sulla base di un principio di esclusività (una esigenza esclude o elimina le altre) ma da un principio di prevalenza, dove le necessità non prevalenti non cessano di esistere ma si modificano in funzione di quelle prevalenti (il proprio campo di espressione è vincolato dai percorsi tracciati in quello delle esigenze prevalenti). In questa tesi si descrive un’applicazione ad uno specifico caso di studio di progettazione architettonica: un parco con spazi polifunzionali nella città di Bologna. L’obiettivo principale del progetto Homeostatic Pattern è quello di dimostrare come questo tipo di processi possano essere osservati, compresi e traslati in architettura: come per gli organismi biologici, in questo progetto gli scambi di materia ed energia (stabilità, respirazione, porosità alla luce) sono regolati da sistemi integrati efficienti piuttosto che da raggruppamenti di elementi mono-ottimizzati. Una specifica pipeline di software è stata costituita allo scopo di collegare in modo bidirezionale e senza soluzione di continuità un software di progettazione parametrica generativa (Grasshopper®) con software di analisi strutturale ed ambientale (GSA Oasys®, Autodesk® Ecotect® analysis), riconducendo i dati nella stessa struttura attraverso cicli di feedback. Il sistema così ottenuto mostra caratteristiche sia a scala macroscopica, come la possibilità di utilizzo della superficie esterna che permette anche un’estensione dell’area verde (grazie alla continuità della membrana), sia alla scala del componente, come la propria capacità di negoziare, tra le altre, la radiazione solare e la modulazione della luce, così come la raccolta capillare delle acque meteoriche. Un sistema multiperformante che come tale non persegue l’ottimizzazione di una singola proprietà ma un miglioramento complessivo per una maggiore efficienza.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Animal neocentromeres are defined as ectopic centromeres that have formed in non-centromeric locations and avoid some of the features, like the DNA satellite sequence, that normally characterize canonical centromeres. Despite this, they are stable functional centromeres inherited through generations. The only existence of neocentromeres provide convincing evidence that centromere specification is determined by epigenetic rather than sequence-specific mechanisms. For all this reasons, we used them as simplified models to investigate the molecular mechanisms that underlay the formation and the maintenance of functional centromeres. We collected human cell lines carrying neocentromeres in different positions. To investigate the region involved in the process at the DNA sequence level we applied a recent technology that integrates Chromatin Immuno-Precipitation and DNA microarrays (ChIP-on-chip) using rabbit polyclonal antibodies directed against CENP-A or CENP-C human centromeric proteins. These DNA binding-proteins are required for kinetochore function and are exclusively targeted to functional centromeres. Thus, the immunoprecipitation of DNA bound by these proteins allows the isolation of centromeric sequences, including those of the neocentromeres. Neocentromeres arise even in protein-coding genes region. We further analyzed if the increased scaffold attachment sites and the corresponding tighter chromatin of the region involved in the neocentromerization process still were permissive or not to transcription of within encoded genes. Centromere repositioning is a phenomenon in which a neocentromere arisen without altering the gene order, followed by the inactivation of the canonical centromere, becomes fixed in population. It is a process of chromosome rearrangement fundamental in evolution, at the bases of speciation. The repeat-free region where the neocentromere initially forms, progressively acquires extended arrays of satellite tandem repeats that may contribute to its functional stability. In this view our attention focalized to the repositioned horse ECA11 centromere. ChIP-on-chip analysis was used to define the region involved and SNPs studies, mapping within the region involved into neocentromerization, were carried on. We have been able to describe the structural polymorphism of the chromosome 11 centromeric domain of Caballus population. That polymorphism was seen even between homologues chromosome of the same cells. That discovery was the first described ever. Genomic plasticity had a fundamental role in evolution. Centromeres are not static packaged region of genomes. The key question that fascinates biologists is to understand how that centromere plasticity could be combined to the stability and maintenance of centromeric function. Starting from the epigenetic point of view that underlies centromere formation, we decided to analyze the RNA content of centromeric chromatin. RNA, as well as secondary chemically modifications that involve both histones and DNA, represents a good candidate to guide somehow the centromere formation and maintenance. Many observations suggest that transcription of centromeric DNA or of other non-coding RNAs could affect centromere formation. To date has been no thorough investigation addressing the identity of the chromatin-associated RNAs (CARs) on a global scale. This prompted us to develop techniques to identify CARs in a genome-wide approach using high-throughput genomic platforms. The future goal of this study will be to focalize the attention on what strictly happens specifically inside centromere chromatin.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Gli strumenti chirurgici sono importanti “devices” utilizzati come supporto indi-spensabile nella cura di pazienti negli ospedali. Essi sono caratterizzati da un intero ciclo di vita che inizia convenzionalmente nello “Store”, dove gli strumenti sterilizzati sono prelevati per essere utilizzati all’interno delle sale operatorie, e termina nuovamente nello “Store”, dove gli strumenti vengono immagazzinati per essere riutilizzati in un nuovo ciclo. Può accadere che le singole fasi del ciclo subiscano ritardi rispetto ai tempi previ-sti, non assicurando, pertanto, nelle sale operatorie, il corretto numero degli stru-menti secondo i tempi programmati. Il progetto che vado ad illustrare ha come obiettivo l’ottimizzazione del ciclo degli strumenti chirurgici all’interno di un nuovo ospedale, applicando i principi della Lean philosophy ed in particolare i metodi: “Poke Yoke, 5S e tracciabilità”. Per raggiungere tale scopo, il progetto è stato articolato come segue. In un primo momento si è osservato l’intero ciclo di vita degli strumenti nei due principali ospedali di Copenhagen (Hervel e Gentofte hospital). Ciò ha permesso di rilevare gli steps del ciclo, nonché di riscontrare sul campo i principali problemi relativi al ciclo stesso quali: bassa flessiblità, decentramento dei differenti reparti di cleaning e di store rispetto alle operation theatres ed un problema nel solleva-mento degli strumenti pesanti. Raccolte le dovute informazioni, si è passati alla fase sperimentale, in cui sono stati mappati due cicli di vita differenti, utilizzando tre strumenti di analisi: • Idef0 che consente di avere una visione gerarchica del ciclo; • Value stream Mapping che permette di evidenziare i principali sprechi del ciclo; • Simulator Tecnomatix che favorisce un punto di vista dinamico dell’analisi. Il primo ciclo mappato è stato creato con il solo scopo di mettere in risalto gli steps del ciclo e alcuni problemi rincontrati all’interno degli ospedali visitati. Il secondo ciclo, invece, è stato creato in ottica Lean al fine di risolvere alcuni tra i principali problemi riscontrati nei due ospedali e ottimizzare il primo ciclo. Si ricordi, infatti, che nel secondo ciclo le principali innovazioni introdotte sono state: l’utilizzo del Barcode e Rfid Tag per identificare e tracciare la posizione degli items, l’uso di un “Automatic and Retrievial Store” per minimizzare i tempi di inserimento e prelievo degli items e infine l’utilizzo di tre tipologie di carrello, per consentire un flessibile servizio di cura. Inoltre sono state proposte delle solu-zioni “Poke-Yoke” per risolvere alcuni problemi manuali degli ospedali. Per evidenziare il vantaggio del secondo ciclo di strumenti, è stato preso in consi-derazione il parametro “Lead time”e le due simulazioni, precedentemente create, sono state confrontate. Tale confronto ha evidenziato una radicale riduzione dei tempi (nonché dei costi associati) della nuova soluzione rispetto alla prima. Alla presente segue la trattazione in lingua inglese degli argomenti oggetto di ri-cerca. Buona lettura.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

The aim of this work was to show that refined analyses of background, low magnitude seismicity allow to delineate the main active faults and to accurately estimate the directions of the regional tectonic stress that characterize the Southern Apennines (Italy), a structurally complex area with high seismic potential. Thanks the presence in the area of an integrated dense and wide dynamic network, was possible to analyzed an high quality microearthquake data-set consisting of 1312 events that occurred from August 2005 to April 2011 by integrating the data recorded at 42 seismic stations of various networks. The refined seismicity location and focal mechanisms well delineate a system of NW-SE striking normal faults along the Apenninic chain and an approximately E-W oriented, strike-slip fault, transversely cutting the belt. The seismicity along the chain does not occur on a single fault but in a volume, delimited by the faults activated during the 1980 Irpinia M 6.9 earthquake, on sub-parallel predominant normal faults. Results show that the recent low magnitude earthquakes belongs to the background seismicity and they are likely generated along the major fault segments activated during the most recent earthquakes, suggesting that they are still active today thirty years after the mainshock occurrences. In this sense, this study gives a new perspective to the application of the high quality records of low magnitude background seismicity for the identification and characterization of active fault systems. The analysis of the stress tensor inversion provides two equivalent models to explain the microearthquake generation along both the NW-SE striking normal faults and the E- W oriented fault with a dominant dextral strike-slip motion, but having different geological interpretations. We suggest that the NW-SE-striking Africa-Eurasia convergence acts in the background of all these structures, playing a primary and unifying role in the seismotectonics of the whole region.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Hypoxia-inducible factor-1 alpha (HIF-1α) plays a critical role in survival and is associated with poor prognosis in solid tumors. The role of HIF-1α in multiple myeloma is not completely known. In the present study, we explored the effect of EZN2968, an locked nucleic acid antisense oligonucleotide against HIF-1α, as a molecular target in MM. A panel of MM cell lines and primary samples from MM patients were cultured in vitro in the presence of EZN2968 . Under normoxia culture condition, HIF-1α mRNA and protein expression was detectable in all MM cell lines and in CD138+ cells from newly diagnosed MM patients samples. Significant up-regulation of HIF-1α protein expression was observed after incubation with IL6 or IGF-I, confirming that HIF-1α can be further induced by biological stimuli. EZN2968 efficiently induces a selective and stable down-modulation of HIF-1α and decreased the secretion of VEGF released by MM cell. Treatment with EZN2968 gave rise to a progressive accumulation of cells in the S and subG0 phase. The analysis of p21, a cyclin-dependent kinase inhibitors controlling cell cycle check point, shows upregulation of protein levels. These results suggest that HIF-1α inhibition is sufficient for cell cycle arrest in normoxia, and for inducing an apoptotic pathways.. In the presence of bone marrow microenvironment, HIF-1α inhibition blocks MAPK kinase pathway and secretion of pro-surviaval cytokines ( IL6,VEGF,IL8) In this study we provide evidence that HIF-1α, even in the absence of hypoxia signal, is expressed in MM plasma cells and further inducible by bone marrow milieu stimuli; moreover its inhibition is sufficient to induce a permanent cell cycle arrest. Our data support the hypothesis that HIF-1α inhibition may suppress tumor growth by preventing proliferation of plasma cells through p21 activation and blocking pro-survival stimuli from bone marrow microenvironment.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Geometric nonlinearities of flexure hinges introduced by large deflections often complicate the analysis of compliant mechanisms containing such members, and therefore, Pseudo-Rigid-Body Models (PRBMs) have been well proposed and developed by Howell [1994] to analyze the characteristics of slender beams under large deflection. These models, however, fail to approximate the characteristics for the deep beams (short beams) or the other flexure hinges. Lobontiu's work [2001] contributed to the diverse flexure hinge analysis building on the assumptions of small deflection, which also limits the application range of these flexure hinges and cannot analyze the stiffness and stress characteristics of these flexure hinges for large deflection. Therefore, the objective of this thesis is to analyze flexure hinges considering both the effects of large-deflection and shear force, which guides the design of flexure-based compliant mechanisms. The main work conducted in the thesis is outlined as follows. 1. Three popular types of flexure hinges: (circular flexure hinges, elliptical flexure hinges and corner-filleted flexure hinges) are chosen for analysis at first. 2. Commercial software (Comsol) based Finite Element Analysis (FEA) method is then used for correcting the errors produced by the equations proposed by Lobontiu when the chosen flexure hinges suffer from large deformation. 3. Three sets of generic design equations for the three types of flexure hinges are further proposed on the basis of stiffness and stress characteristics from the FEA results. 4. A flexure-based four-bar compliant mechanism is finally studied and modeled using the proposed generic design equations. The load-displacement relationships are verified by a numerical example. The results show that a maximum error about the relationship between moment and rotation deformation is less than 3.4% for a flexure hinge, and it is lower than 5% for the four-bar compliant mechanism compared with the FEA results.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Diabetes mellitus is considered a risk factor for Group B Streptococcus (GBS) infections. Typically, this pathology is associated to high glucose levels in the bloodstream. Although clinical evidences support this notion, the physiological mechanisms underlying GBS adaptation to such conditions are not yet defined. In the attempt to address this issue, we performed comparative global gene expression analysis of GBS grown under glucose-stress conditions and observed that a number of metabolic and virulence genes was differentially regulated. Of importance, we also demonstrated that by knocking-out the csrRS locus the transcription profile of GBS grown in high-glucose conditions was profoundly affected, with more than a third of glucose-dependent genes, including the virulence factor bibA, found to be controlled by this two-component system. Furthermore, in vitro molecular analysis showed that CsrR specifically binds to the bibA promoter and the phosphorilation increases the affinity of the regulator to this promoter region. Moreover, we demonstrated that CsrR acts as a repressor of bibA expression by binding to its promoter in vivo. In conclusion, this work by elucidating both the response of GBS to pathological glucose conditions and the underlined molecular mechanisms will set the basis for a better understanding of GBS pathogenesis.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

The aim of this work is to measure the stress inside a hard micro object under extreme compression. To measure the internal stress, we compressed ruby spheres (a-Al2O3: Cr3+, 150 µm diameter) between two sapphire plates. Ruby fluorescence spectrum shifts to longer wavelengths under compression and can be related to the internal stress by a conversion coefficient. A confocal laser scanning microscope was used to excite and collect fluorescence at desired local spots inside the ruby sphere with spatial resolution of about 1 µm3. Under static external loads, the stress distribution within the center plane of the ruby sphere was measured directly for the first time. The result agreed to Hertz’s law. The stress across the contact area showed a hemispherical profile. The measured contact radius was in accord with the calculation by Hertz’s equation. Stress-load curves showed spike-like decrease after entering non-elastic phase, indicating the formation and coalescence of microcracks, which led to relaxing of stress. In the vicinity of the contact area luminescence spectra with multiple peaks were observed. This indicated the presence of domains of different stress, which were mechanically decoupled. Repeated loading cycles were applied to study the fatigue of ruby at the contact region. Progressive fatigue was observed when the load exceeded 1 N. As long as the load did not exceed 2 N stress-load curves were still continuous and could be described by Hertz’s law with a reduced Young’s modulus. Once the load exceeded 2 N, periodical spike-like decreases of the stress could be observed, implying a “memory effect” under repeated loading cycles. Vibration loading with higher frequencies was applied by a piezo. Redistributions of intensity on the fluorescence spectra were observed and it was attributed to the repopulation of the micro domains of different elasticity. Two stages of under vibration loading were suggested. In the first stage continuous damage carried on until certain limit, by which the second stage, e.g. breakage, followed in a discontinuous manner.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

In dieser Arbeit werden Strukturen beschrieben, die mit Polymeren auf Oberflächen erzeugt wurden. Die Anwendungen reichen von PMMA und PNIPAM Polymerbürsten, über die Restrukturierung von Polystyrol durch Lösemittel bis zu 3D-Strukturen, die aus PAH/ PSS Polyelektrolytmultischichten bestehen. Im ersten Teil werden Polymethylmethacrylat (PMMA) Bürsten in der ionischen Flüssigkeit 1-Butyl-3-Methylimidazolium Hexafluorophospat ([Bmim][PF6]) durch kontrollierte radikalische Polymerisation (ATRP) hergestellt. Kinetische Untersuchungen zeigten ein lineares und dichtes Bürstenwachstum mit einer Wachstumsrate von 4600 g/mol pro nm. Die durchschnittliche Pfropfdichte betrug 0.36 µmol/m2. Als Anwendung wurden Mikrotropfen bestehend aus der ionischen Flüssigkeit, Dimethylformamid und dem ATRP-Katalysator benutzt, um in einer definierten Geometrie Polymerbürsten auf Silizium aufzubringen. Auf diese Weise lässt sich eine bis zu 13 nm dicke Beschichtung erzeugen. Dieses Konzept ist durch die Verdampfung des Monomers Methylmethacrylat (MMA) limitiert. Aus einem 1 µl großen Tropfen aus ionischer Flüssigkeit und MMA (1:1) verdampft MMA innerhalb von 100 s. Daher wurde das Monomer sequentiell zugegeben. Der zweite Teil konzentriert sich auf die Strukturierung von Oberflächen mit Hilfe einer neuen Methode: Tintendruck. Ein piezoelektrisch betriebenes „Drop-on-Demand“ Drucksystem wurde verwendet, um Polystyrol mit 0,4 nl Tropfen aus Toluol zu strukturieren. Die auf diese Art und Weise gebildeten Mikrokrater können Anwendung als Mikrolinsen finden. Die Brennweite der Mikrolinsen kann über die Anzahl an Tropfen, die für die Strukturierung verwendet werden, eingestellt werden. Theoretisch und experimentell wurde die Brennweite im Bereich von 4,5 mm bis 0,21 mm ermittelt. Der zweite Strukturierungsprozess nutzt die Polyelektrolyte Polyvinylamin-Hydrochlorid (PAH) und Polystyrolsulfonat (PSS), um 3D-Strukturen wie z.B. Linien, Schachbretter, Ringe, Stapel mit einer Schicht für Schicht Methode herzustellen. Die Schichtdicke für eine Doppelschicht (DS) liegt im Bereich von 0.6 bis 1.1 nm, wenn NaCl als Elektrolyt mit einer Konzentration von 0,5 mol/l eingesetzt wird. Die Breite der Strukturen beträgt im Mittel 230 µm. Der Prozess wurde erweitert, um Nanomechanische Cantilever Sensoren (NCS) zu beschichten. Auf einem Array bestehend aus acht Cantilevern wurden je zwei Cantilever mit fünf Doppelschichten PAH/ PSS und je zwei Cantilever mit zehn Doppelschichten PAH/ PSS schnell und reproduzierbar beschichtet. Die Massenänderung für die individuellen Cantilever war 0,55 ng für fünf Doppelschichten und 1,08 ng für zehn Doppelschichten. Der daraus resultierende Sensor wurde einer Umgebung mit definierter Luftfeuchtigkeit ausgesetzt. Die Cantilever verbiegen sich durch die Ausdehnung der Beschichtung, da Wasser in das Polymer diffundiert. Eine maximale Verbiegung von 442 nm bei 80% Luftfeuchtigkeit wurde für die mit zehn Doppelschichten beschichteten Cantilever gefunden. Dies entspricht einer Wasseraufnahme von 35%. Zusätzlich konnte aus den Verbiegungsdaten geschlossen werden, dass die Elastizität der Polyelektrolytmultischichten zunimmt, wenn das Polymer gequollen ist. Das thermische Verhalten in Wasser wurde im nächsten Teil an nanomechanischen Cantilever Sensoren, die mit Poly(N-isopropylacrylamid)bürsten (PNIPAM) und plasmapolymerisiertem N,N-Diethylacrylamid beschichtet waren, untersucht. Die Verbiegung des Cantilevers zeigte zwei Bereiche: Bei Temperaturen kleiner der niedrigsten kritischen Temperatur (LCST) ist die Verbiegung durch die Dehydration der Polymerschicht dominiert und bei Temperaturen größer der niedrigsten kritischen Temperatur (LCST) reagiert der Cantilever Sensor überwiegend auf Relaxationsprozesse innerhalb der kollabierten Polymerschicht. Es wurde gefunden, dass das Minimum in der differentiellen Verbiegung mit der niedrigsten kritischen Temperatur von 32°C und 44°C der ausgewählten Polymeren übereinstimmt. Im letzten Teil der Arbeit wurden µ-Reflektivitäts- und µ-GISAXS Experimente eingeführt als neue Methoden, um mikrostrukturierte Proben wie NCS oder PEM Linien mit Röntgenstreuung zu untersuchen. Die Dicke von jedem individuell mit PMMA Bürsten beschichtetem NCS ist im Bereich von 32,9 bis 35,2 nm, was mit Hilfe von µ-Reflektivitätsmessungen bestimmt wurde. Dieses Ergebnis kann mit abbildender Ellipsometrie als komplementäre Methode mit einer maximalen Abweichung von 7% bestätigt werden. Als zweites Beispiel wurde eine gedruckte Polyelektrolytmultischicht aus PAH/PSS untersucht. Die Herstellungsprozedur wurde so modifiziert, dass Goldnanopartikel in die Schichtstruktur eingebracht wurden. Durch Auswertung eines µ-GISAXS Experiments konnte der Einbau der Partikel identifiziert werden. Durch eine Anpassung mit einem Unified Fit Modell wurde herausgefunden, dass die Partikel nicht agglomeriert sind und von einer Polymermatrix umgeben sind.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Progetto e costruzione di una casa tradizionale con telaio di legno nelle Marche.