762 resultados para Costipamento, Proctor, Pressa Giratoria, Stabilizzazione a calce, Miscela ottimale


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les propriétés hydrauliques d’un till du Nord du Québec en condition saturée et non saturée ont été étudiées en laboratoire à l’aide de l’essai de conductivité hydraulique et l’essai de succion qui permet d’obtenir la courbe de rétention d’eau. Les essais ont été réalisés avec des échantillons compactés sous différentes conditions de teneur en eau et de masse volumique sèche, de manière à évaluer l’influence de ces conditions sur les propriétés hydrauliques. Les études précédentes ont montré qu’une structure agrégée se développe dans le till lorsqu’il est compacté de côté sec de l’optimum Proctor, c’est-à-dire à un degré de saturation de compactage inférieur au degré de saturation optimum (Sr0 < Sr-opt). Le till étudié dans le cadre de cette étude diffère de ceux utilisés dans les études précédentes par son très faible pourcentage de particules argileuses (< 2 μm) de 0,7%. L’objectif principal de cette étude est d’évaluer l’influence des conditions de compactage sur la conductivité hydraulique et la courbe de rétention d’eau et de déterminer si une structure agrégée se développe lorsque le till est compacté du côté sec de l’optimum. Les résultats expérimentaux typiques de la conductivité hydraulique saturée obtenus pour les échantillons compactés du côté humide de l’optimum (Sr0 > Sr-opt) avec un indice des vides de 0,328 varient de 2,6 x 10-7 à 8,6 x 10-7 m/s. Les conductivités hydrauliques typiques obtenues pour les échantillons compactés du côté sec de l’optimum (Sr0 < Sr-opt) avec le même indice des vides étaient très similaires, variant entre 2,4 x 10-7 et 9,1 x 10-7 m/s. Les courbes de rétention d’eau mesurées en laboratoire sont très semblables entre elles, présentant toutes une structure de sol homogène, peu importe si l’échantillon a été compacté du côté sec ou du côté humide. Il apparait que la conductivité hydraulique et la courbe de rétention d’eau de ce till sont très peu influencées par le degré de saturation de compactage. Ceci peut être expliqué par le très faible pourcentage de particules argileuses, qui prévient la formation d’agrégations de particules dans la structure du till lorsqu’il est compacté du côté sec de l’optimum Proctor. Plusieurs modèles d’estimation de la conductivité hydraulique sont utilisés. Cette étude propose trois nouveaux modèles d’estimation de la conductivité hydraulique saturée pour les tills du Nord du Québec. Le premier modèle met en relation la conductivité hydraulique saturée avec le diamètre des grains de la fraction fine (d50 FF) et le deuxième modèle est une équation modifiée de Kozeny-Carman et Hazen basée sur la porosité et une taille de particule effective (d10). Finalement, un modèle permettant d’évaluer l’effet de l’agrégation avec l’équation de Kozeny-Carman modifiée dans les tills compactés est proposé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La réalité scolaire au Québec est un sujet d'actualité depuis quelques temps. En effet, on observe une préoccupation de plus en plus grande à remettre en question le fonctionnement scolaire lorsque l'on regarde les chiffres de décrochage scolaire au secondaire: quatre Québécois sur dix quittent aujourd'hui l'école sans diplôme d'études secondaires (Gruda, 1991). Phlegar (1987) identifie différents facteurs qui amènent les adolescents à délaisser l'école, lesquels se situent à quatre niveaux: académique, scolaire et social, familial et personnel. Selon l'auteure, dès l'entrée scolaire, nous pouvons observer certaines de ces caractéristiques chez les enfants. Pour favoriser une expérience de succès et ainsi développer une motivation à apprendre dans un cadre formel d'enseignement, quand peut-on dire alors qu'un enfant est prêt à intégrer l'école? Le ministre de l'éducation du Québec, monsieur Michel Pagé (Montpetit, 1991), considère l'importance de l'âge chronologique pour déterminer le temps propice à l'entrée scolaire selon un document préparé en 1988 par la Direction des études économiques et démographiques du ministère de l’Éducation. D'après cette recherche interne, l'enfant jeune (celui qui a commencé jeune sa scolarité par dérogation scolaire ou celui dont l'anniversaire se situe entre le premier juillet et le 30 septembre) démontre plus de probabilité de reprendre une année scolaire au primaire et la première année du secondaire que les autres enfants. Toujours selon cette étude, Gagnon (1991) rapporte que les enfants qui entrent à l'école à six ans précis (les enfants jeunes) seraient plus nombreux à persévérer. Malgré cette donnée, le ministre a envisagé l'éventualité de retarder l'entrée scolaire des enfants et de mettre la date d'admission au 31 mai plutôt qu'au 30 septembre comme c'est le cas actuellement (Projet, 1991; Lessard, 1991). Ce dernier considère, en effet, qu'un retard d'un an dans l'entrée à l'école de ces enfants contribuerait à réduire le nombre d'élèves qui redoublent de même que le nombre de ceux qui décrochent du système plus tard. Mais cette étude interne démontre aussi qu'il n'y a aucune relation entre le mois de naissance et la probabilité d'accéder au diplôme d'études secondaires. Ce désir de changement entraîne beaucoup de réactions dans le milieu éducatif, certaines favorables et d'autres non. M. Pagé, devant ces réactions, a ouvert la porte à la possibilité d'utiliser une formule d'évaluation individuelle pour les cas limites. Ce que la Fédération des Commissions Scolaires du Québec (F.C.S.Q.) et la Centrale de l'enseignement du Québec (C.E.Q.) qualifient d'utopie. L'âge d'admission est pour la F.C.S.Q. le seul critère objectif d'admission (1991). Nous remarquons donc que ce débat est principalement centré sur un critère unique de sélection concernant l'entrée scolaire: l'âge chronologique. Mais en existe-t-il d'autres? Ainsi, à partir de l'existence de différentes positions fermes des instances concernées par la formation académique des enfants et des modalités qui régissent l'entrée scolaire, cet essai a pour objectif l'identification des prédicteurs de réussite scolaire pour les enfants à leur entrée au primaire. Qu'il s'agisse d'enfants qui ont des risques de troubles d'apprentissage en lecture (Fedoruk, 1989), d'enfants qui sont doués et qui bénéficieraient d'une dérogation scolaire pour l'âge d'admission (Proctor,Black & Feldhusen, 1986; Proctor, Feldhusen & Black, 1988), ou des enfants qui répondent au critère chronologique d'admission scolaire (Phlegar, 1987), tous ces chercheurs s'entendent pour dire que les performances académiques sont influencées par différents facteurs qui concernent l'enfant et le milieu d'appartenance. De plus, les Gouverneurs et le Président américain adoptaient en février 1990 une série d'objectifs nationaux concernant l'éducation pour l'an 2000 aux États-Unis dont le premier étant que tous les enfants soient prêts à apprendre à leur entrée scolaire primaire (Haycock, 1991). L'équipe de recherche chargée de développer cet objectif (Prince, 1992) considère, dans ses recommandations qu'un système d'évaluation doit comprendre plusieurs dimensions s'intégrant dans les cinq sphères de développement de l'enfant (physique, socio-affectif, style d'apprentissage, langage, cognitions et connaissances) et son environnement (parents et professeurs). Et c'est justement ce que notre étude veut établir. Nous verrons, dans un premier temps, la nature du problème ainsi que l'objectif de la recherche et le cadre théorique qui servent de charpente à la compréhension de cet objet d'étude. Viendront ensuite l'identification du modèle de recension des écrits utilisé suivi des informations concernant la recherche des études scientifiques. Nous ferons ensuite le résumé et l'analyse des recherches primaires retenues en tenant compte des qualités méthodologiques et métrologiques. Nous synthétiserons ces informations pour retenir les résultats valides afin de faire le point sur les résultats disponibles à ce jour. Nous terminerons avec une discussion sur la pertinence des résultats, les limites de l'étude de même que des suggestions concernant de futurs domaines d'investigation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Compaction control using lightweight deflectometers (LWD) is currently being evaluated in several states and countries and fully implemented for pavement construction quality assurance (QA) by a few. Broader implementation has been hampered by the lack of a widely recognized standard for interpreting the load and deflection data obtained during construction QA testing. More specifically, reliable and practical procedures are required for relating these measurements to the fundamental material property—modulus—used in pavement design. This study presents a unique set of data and analyses for three different LWDs on a large-scale controlled-condition experiment. Three 4.5x4.5 m2 test pits were designed and constructed at target moisture and density conditions simulating acceptable and unacceptable construction quality. LWD testing was performed on the constructed layers along with static plate loading testing, conventional nuclear gauge moisture-density testing, and non-nuclear gravimetric and volumetric water content measurements. Additional material was collected for routine and exploratory tests in the laboratory. These included grain size distributions, soil classification, moisture-density relations, resilient modulus testing at optimum and field conditions, and an advanced experiment of LWD testing on top of the Proctor compaction mold. This unique large-scale controlled-condition experiment provides an excellent high quality resource of data that can be used by future researchers to find a rigorous, theoretically sound, and straightforward technique for standardizing LWD determination of modulus and construction QA for unbound pavement materials.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Urban paving is of paramount importance for a city, both socioeconomic and in quality of life. The urban flooring not different so-called road surface are constituted by a set of horizontal layers, overlaid on the ground, which have the main function of supporting the actions induced by the vehicle redistributing the stresses transmitted to the ground. Soils are important materials for the execution of paving, mainly because they are part of the basic structure of the floor and mostly be available in abundance, with a very low cost, however, their properties usually do not meet the requirements necessary to perform the floor. The soil stabilization for the implementation of urban pavement bases and sub-bases is an increasingly important aspect in the current situation, because always there is the concern with the environment, and there is now the clear awareness that every effort should be made to minimize the effects caused by the exploitation of deposits and deposition of material. In this sense this work presents the effects of adding different proportions of lime to stabilize a sedimentary soil sample from the urban area of the city of Curitiba. It selected a sample quantity of soil in the region to study the stabilization insertion of hydrated lime type (CHIII) powder. The two variables in the study are related to the content of lime mixed with the soil at 0% percentages of 3%, 6%, 8% and 16%, and cure times at which these mixtures were subjected to (0, 7, 14, 28 and 56 days). The tested mixtures were prepared from dosages defined by two methods: one checking the chemical behavior of the samples by means of changes in pH values, and the second analyzing the mechanical behavior through the RCS values. It has been found that the chemical stability analyzed by addition of lime, provided an average increase of RCS in most soil samples studied, because of some physical and chemical characteristics thereof. For mixtures with 6%, 8% and 16% of lime after 28 days of curing, the average RCS was 0,57 MPa, 1,06 MPa and 2,37 MPa, respectively, for the normal proctor, and as for intermediate proctor, in the same curing time and on the same percentages RCS results were 0,54 MPa, 1,04 MPa and 2,71 MPa, respectively. In global terms, the soil-lime mixtures studied showed acceptable behavior by law to use as layers of sub-base. However, only the mixture with 16% of lime, at 28 days, is recommended for use on floors bases. Even so, the mixtures studied constitute a good alternative economic and socio-environmental.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la actualidad las entidades que conforman el Sistema Financiero Salvadoreño, se encuentran implementando acciones para identificar, medir y mitigar los riesgos a los que se encuentran expuestas, ya que esto les permitirá fortalecer las áreas que tienen una mayor exposición a ellos, y por ende asegurar un crecimiento sólido y sostenible. Los Bancos Cooperativos como integrantes de dicho Sistema, también se encuentran en el proceso de identificación de sus riesgos, entre los cuales se destaca el de liquidez, que se encuentra inmerso en la función de intermediación que realizan, al transformar el ahorro de los depositantes en créditos para apoyar proyectos productivos. Es por ello, que en el presente estudio se mencionan sus fuentes de financiamiento, y se presentan otras alternativas de financiamiento a través del mercado de valores. En el Capítulo I, se presentan aspectos generales de los Bancos Cooperativos en El Salvador, antecedentes, principios, diferencias con los bancos, aportes que brindan a la sociedad y quienes los conforman. En el Capítulo II, se expone como la Bolsa de Valores facilita las negociaciones en el mercado de valores, mediante los diversos instrumentos bursátiles que pone a disposición de los demandantes de fondos, entre los cuales se encuentran títulos de renta variable y de renta fija, estos últimos debido a que tienen asociado un interés conocido, a un plazo de tiempo determinado, son considerados de menor riesgo. Además, se indican las fuentes de fondeo actuales de los Bancos Cooperativos y de los Bancos, destacándose qué los primeros, tienen concentrado su fondeo en depósitos y en préstamos recibidos de terceros, por lo que, la falta de diversificación podría ocasionarles problemas de calce de plazos, advirtiendo la necesidad que estas entidades busquen otras fuentes de fondeo; derivado de ello, se plantean alternativas de financiamiento a través del Mercado de Valores, que brinda la posibilidad de fondearse en términos más flexibles, con tasas competitivas, mayores plazos, mejor estructuración de sus pasivos y menor costo que en el Sistema Bancario, permitiéndole a las instituciones la consolidación y fortalecimiento de su estructura financiera, generando así las condiciones necesarias para maximizar su competitividad. Posteriormente, en el Capítulo III, se realiza un escenario sobre los costos de financiarse mediante un préstamo con la banca, con respecto, a los generados por la emisión de valores de deuda, para el caso en particular un certificado de inversión, ambos para un mismo horizonte de tiempo, obteniéndose el costo de fondeo de cada una de las alternativas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Civil e Ambiental, 2016.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo elaborato sono stati analizzati i vantaggi di un motore benzina GDI rispetto ad un motore PFI, studiando in particolar modo le tecnologie per la formazione della miscela omogenea e stratificata, le configurazioni spray-guided, wall-guided e air-guided della camera di combustione, i principali iniettori utilizzati e le loro caratteristiche. Inoltre è stato eseguito un approfondimento sui parametri che influenzano maggiormente l'emissione di inquinanti come la fasatura delle valvole, la posizione dell'iniettore e l'iniezione multipla, cercando di ottimizzarli in funzione delle nuove normative europee relative alle emissioni per i motori benzina. Infine è stata verificata l'efficienza dell'applicazione del filtro antiparticolato per motori benzina ad iniezione diretta (GPF).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente documento pretende mostrar la manera como se debe ejecutar la creación de marca mediante la utilización de mecanismos estratégicos comunitarios y marketing. El objetivo del estudio se basa en encontrar los mecanismos adecuados para el desarrollo y creación de una marca enfocándose en el análisis de las principales prácticas y modelos desarrollados en el área del marketing, examinando el impacto que la marca pueda generar en la comunidad en la cual la organización está incluida, estableciendo además un conexión directa con el modo de vida de los consumidores. Durante el desarrollo del documento se demuestra que las estrategias de marketing aplicadas por cada compañía, sirven para construir una relación estrecha y fuerte con todos los agentes involucrados en la construcción de una marca, principalmente con los clientes, ya que la forma más efectiva de establecer relaciones a largo plazo, es enfocándose exclusivamente en las necesidades desarrolladas por los consumidores, y a partir de ellas ajustar los valores (misión, visión, cultura organizacional, objetivos) de la organización. Estas estrategias comunitarias son también influenciadas por varios factores internos y externos a la organización, los cuales deben ser tenidos en cuenta al momento de elegir la estrategia adecuada. Los mecanismos estratégicos que desarrollan las empresas pueden cambiar significativamente de un sector comercial a otro, la importancia de las necesidades que se deben suplir y el consumidor final se deben evaluar desde un aspecto comunitario, entendiendo como comunidad como el conjunto de grupos sociales y comerciales que tienen relación directa o indirecta con la empresa. Con la investigación llevada a cabo acerca de las estrategias que deben aplicar las compañías se concluye que las marcas reflejan la imagen que la empresa transmite a sus compradores estableciendo una relación emocional entre los consumidores y la marca desarrollada, además de estimular la oferta y demanda del negocio. Se espera que por medio de la obtención de información teórica y conceptual, se pueda aclarar la manera como se puede desarrollar la creación de una marca por medio de la correcta utilización de mecanismos estratégicos comunitarios y de marketing.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel panorama mondiale di contenimento delle emissioni inquinanti in atmosfera é divenuto sempre più importante limitare la parte derivante dai motori a combustione interna: l'utilizzo di motori GDI a carica stratificata e di ricircolo dei gas di scarico (EGR) sono esempi di tecnologie pensate proprio in tale ottica. Sia la presenza di un ambiente magro che di EGR nel cilindro, come anche l'aumento della pressione nel cilindro per l'incremento della pressione di sovralimentazione o del rapporto di compressione, hanno lo svantaggio di limitare la velocità di combustione e rendere più sfavorevoli le condizioni di accensione della miscela; in questo scenario diviene di fondamentale importanza il miglioramento dei sistemi di accensione, la creazione di modelli volti a simularli e la comprensione dei fenomeni che ne stanno alla base. Il seguente lavoro di tesi si inserisce proprio in questo contesto, indagando le varie fasi di cui si compone il fenomeno dell'accensione e le relazioni che legano le variabili di interesse fisico, verificate sulla base di evidenze sperimentali. Successivamente vengono analizzati i principali modelli d'accensione che sono stati proposti e implementati in codici computazionali fluidodinamici; l'analisi mette in luce le differenze, i punti di forza e le semplificazioni introdotte in ognuno di essi, in modo da poterli valutare criticamente. La suddetta analisi é anche utile per introdurre il modello frutto del lavoro del gruppo di ricerca dell'Università di Bologna; ci si concentra particolarmente su quest'ultimo poiché un obiettivo di questo lavoro di tesi é stato proprio l'implementazione e l'utilizzo del modello in un codice fluidodinamico tridimensionale quale CONVERGE CFD. L'implementazione é stata poi validata attraverso simulazioni su una geometria reale di un motore a combustione interna ad elevate prestazioni, confrontando i risultati ottenuti con il nuovo modello rispetto ai dati sperimentali sulla combustione.

Relevância:

0.00% 0.00%

Publicador:

Resumo:

In un'epoca di risorse scarse e di crescente disaffezione verso la politica, l'azione degli enti locali ha un impatto sempre più rilevante sulla qualità della vita del cittadino. A tal fine, l'adozione di sistemi di programmazione e controllo, supportati da idonei strumenti, diviene essenziale per il perseguimento dell'efficienza e dell'efficacia e dunque per riconquistare la fiducia del cittadino stesso. Il volume, sulla base di un'analisi della normativa (dai primi anni Novanta fino al DL 174/2012 e s.m.i.) e della letteratura nazionale ed internazionale in tema di performance measurement, identifica un Modello ottimale (Modello PerformEL) per la redazione di due documenti che possono avere un ruolo centrale nel sistema di programmazione e controllo locale: il Piano e la Relazione sulla Performance. La capacità informativa di questi ultimi è testata tramite un'indagine empirica che ha coinvolto i comuni con almeno 50.000 abitanti, comparando struttura, forma e contenuti di tali documenti con quelli ritenuti ottimali e quindi inseriti nel Modello. Sulla base dei risultati dell'indagine, che mostrano una diffusa inadeguatezza informativa degli strumenti analizzati, viene proposto un percorso evolutivo per la graduale realizzazione di documenti di programmazione e controllo che, al di là della loro 'etichetta formale' (Piano della Performance piuttosto che Piano Esecutivo di Gestione, Relazione sulla Performance o Report dei Controlli interni) permetta di semplificare l'architettura informativa dell'ente locale (nel rispetto del DL 174/2012) e parimenti di trasformare i molteplici inutili adempimenti in utili documenti di performance measurement.

Relevância:

0.00% 0.00%

Publicador:

Resumo:

The exponential growth of the world population has led to an increase of settlements often located in areas prone to natural disasters, including earthquakes. Consequently, despite the important advances in the field of natural catastrophes modelling and risk mitigation actions, the overall human losses have continued to increase and unprecedented economic losses have been registered. In the research work presented herein, various areas of earthquake engineering and seismology are thoroughly investigated, and a case study application for mainland Portugal is performed. Seismic risk assessment is a critical link in the reduction of casualties and damages due to earthquakes. Recognition of this relation has led to a rapid rise in demand for accurate, reliable and flexible numerical tools and software. In the present work, an open-source platform for seismic hazard and risk assessment is developed. This software is capable of computing the distribution of losses or damage for an earthquake scenario (deterministic event-based) or earthquake losses due to all the possible seismic events that might occur within a region for a given interval of time (probabilistic event-based). This effort has been developed following an open and transparent philosophy and therefore, it is available to any individual or institution. The estimation of the seismic risk depends mainly on three components: seismic hazard, exposure and vulnerability. The latter component assumes special importance, as by intervening with appropriate retrofitting solutions, it may be possible to decrease directly the seismic risk. The employment of analytical methodologies is fundamental in the assessment of structural vulnerability, particularly in regions where post-earthquake building damage might not be available. Several common methodologies are investigated, and conclusions are yielded regarding the method that can provide an optimal balance between accuracy and computational effort. In addition, a simplified approach based on the displacement-based earthquake loss assessment (DBELA) is proposed, which allows for the rapid estimation of fragility curves, considering a wide spectrum of uncertainties. A novel vulnerability model for the reinforced concrete building stock in Portugal is proposed in this work, using statistical information collected from hundreds of real buildings. An analytical approach based on nonlinear time history analysis is adopted and the impact of a set of key parameters investigated, including the damage state criteria and the chosen intensity measure type. A comprehensive review of previous studies that contributed to the understanding of the seismic hazard and risk for Portugal is presented. An existing seismic source model was employed with recently proposed attenuation models to calculate probabilistic seismic hazard throughout the territory. The latter results are combined with information from the 2011 Building Census and the aforementioned vulnerability model to estimate economic loss maps for a return period of 475 years. These losses are disaggregated across the different building typologies and conclusions are yielded regarding the type of construction more vulnerable to seismic activity.

Relevância:

0.00% 0.00%

Publicador:

Resumo:

L’obiettivo della tesi riguarda l’utilizzo di immagini aerofotogrammetriche e telerilevate per la caratterizzazione qualitativa e quantitativa di ecosistemi forestali e della loro evoluzione. Le tematiche affrontate hanno riguardato, da una parte, l’aspetto fotogrammetrico, mediante recupero, digitalizzazione ed elaborazione di immagini aeree storiche di varie epoche, e, dall’altra, l’aspetto legato all’uso del telerilevamento per la classificazione delle coperture al suolo. Nel capitolo 1 viene fatta una breve introduzione sullo sviluppo delle nuove tecnologie di rilievo con un approfondimento delle applicazioni forestali; nel secondo capitolo è affrontata la tematica legata all’acquisizione dei dati telerilevati e fotogrammetrici con una breve descrizione delle caratteristiche e grandezze principali; il terzo capitolo tratta i processi di elaborazione e classificazione delle immagini per l’estrazione delle informazioni significative. Nei tre capitoli seguenti vengono mostrati tre casi di applicazioni di fotogrammetria e telerilevamento nello studio di ecosistemi forestali. Il primo caso (capitolo 4) riguarda l’area del gruppo montuoso del Prado- Cusna, sui cui è stata compiuta un’analisi multitemporale dell’evoluzione del limite altitudinale degli alberi nell’arco degli ultimi cinquant’anni. E’ stata affrontata ed analizzata la procedura per il recupero delle prese aeree storiche, definibile mediante una serie di successive operazioni, a partire dalla digitalizzazione dei fotogrammi, continuando con la determinazione di punti di controllo noti a terra per l’orientamento delle immagini, per finire con l’ortorettifica e mosaicatura delle stesse, con l’ausilio di un Modello Digitale del Terreno (DTM). Tutto ciò ha permesso il confronto di tali dati con immagini digitali più recenti al fine di individuare eventuali cambiamenti avvenuti nell’arco di tempo intercorso. Nel secondo caso (capitolo 5) si è definita per lo studio della zona del gruppo del monte Giovo una procedura di classificazione per l’estrazione delle coperture vegetative e per l’aggiornamento della cartografia esistente – in questo caso la carta della vegetazione. In particolare si è cercato di classificare la vegetazione soprasilvatica, dominata da brughiere a mirtilli e praterie con prevalenza di quelle secondarie a nardo e brachipodio. In alcune aree sono inoltre presenti comunità che colonizzano accumuli detritici stabilizzati e le rupi arenacee. A questo scopo, oltre alle immagini aeree (Volo IT2000) sono state usate anche immagini satellitari ASTER e altri dati ancillari (DTM e derivati), ed è stato applicato un sistema di classificazione delle coperture di tipo objectbased. Si è cercato di definire i migliori parametri per la segmentazione e il numero migliore di sample per la classificazione. Da una parte, è stata fatta una classificazione supervisionata della vegetazione a partire da pochi sample di riferimento, dall’altra si è voluto testare tale metodo per la definizione di una procedura di aggiornamento automatico della cartografia esistente. Nel terzo caso (capitolo 6), sempre nella zona del gruppo del monte Giovo, è stato fatto un confronto fra la timberline estratta mediante segmentazione ad oggetti ed il risultato di rilievi GPS a terra appositamente effettuati. L’obiettivo è la definizione del limite altitudinale del bosco e l’individuazione di gruppi di alberi isolati al di sopra di esso mediante procedure di segmentazione e classificazione object-based di ortofoto aeree in formato digitale e la verifica sul campo in alcune zone campione dei risultati, mediante creazione di profili GPS del limite del bosco e determinazione delle coordinate dei gruppi di alberi isolati. I risultati finali del lavoro hanno messo in luce come le moderne tecniche di analisi di immagini sono ormai mature per consentire il raggiungimento degli obiettivi prefissi nelle tre applicazioni considerate, pur essendo in ogni caso necessaria una attenta validazione dei dati ed un intervento dell’operatore in diversi momenti del processo. In particolare, le operazioni di segmentazione delle immagini per l’estrazione di feature significative hanno dimostrato grandi potenzialità in tutti e tre i casi. Un software ad “oggetti” semplifica l’implementazione dei risultati della classificazione in un ambiente GIS, offrendo la possibilità, ad esempio, di esportare in formato vettoriale gli oggetti classificati. Inoltre dà la possibilità di utilizzare contemporaneamente, in un unico ambiente, più sorgenti di informazione quali foto aeree, immagini satellitari, DTM e derivati. Le procedure automatiche per l’estrazione della timberline e dei gruppi di alberi isolati e per la classificazione delle coperture sono oggetto di un continuo sviluppo al fine di migliorarne le prestazioni; allo stato attuale esse non devono essere considerate una soluzione ottimale autonoma ma uno strumento per impostare e semplificare l’intervento da parte dello specialista in fotointerpretazione.

Relevância:

0.00% 0.00%

Publicador:

Resumo:

Il presente studio ha avuto l’obiettivo di indagare la produzione di bioetanolo di seconda generazione a partire dagli scarti lignocellulosici della canna da zucchero (bagassa), facendo riscorso al processo enzimatico. L’attività di ricerca è stata svolta presso il Dipartimento di Ingegneria Chimica dell’Università di Lund (Svezia) all’interno di rapporti scambio con l’Università di Bologna. Il principale scopo è consistito nel valutare la produzione di etanolo in funzione delle condizioni operative con cui è stata condotta la saccarificazione e fermentazione enzimatica (SSF) della bagassa, materia prima che è stata sottoposta al pretrattamento di Steam Explosion (STEX) con aggiunta di SO2 come catalizzatore acido. Successivamente, i dati ottenuti in laboratorio dalla SSF sono stati utilizzati per implementare, in ambiente AspenPlus®, il flowsheet di un impianto che simula tutti gli aspetti della produzione di etanolo, al fine di studiarne il rendimento energetico dell’intero processo. La produzione di combustibili alternativi alle fonti fossili oggigiorno riveste primaria importanza sia nella limitazione dell’effetto serra sia nel minimizzare gli effetti di shock geopolitici sulle forniture strategiche di un Paese. Il settore dei trasporti in continua crescita, consuma nei paesi industrializzati circa un terzo del fabbisogno di fonti fossili. In questo contesto la produzione di bioetanolo può portare benefici per sia per l’ambiente che per l’economia qualora valutazioni del ciclo di vita del combustibile ne certifichino l’efficacia energetica e il potenziale di mitigazione dell’effetto serra. Numerosi studi mettono in risalto i pregi ambientali del bioetanolo, tuttavia è opportuno fare distinzioni sul processo di produzione e sul materiale di partenza utilizzato per comprendere appieno le reali potenzialità del sistema well-to-wheel del biocombustibile. Il bioetanolo di prima generazione ottenuto dalla trasformazione dell’amido (mais) e delle melasse (barbabietola e canna da zucchero) ha mostrato diversi svantaggi: primo, per via della competizione tra l’industria alimentare e dei biocarburanti, in secondo luogo poiché le sole piantagioni non hanno la potenzialità di soddisfare domande crescenti di bioetanolo. In aggiunta sono state mostrate forti perplessità in merito alla efficienza energetica e del ciclo di vita del bioetanolo da mais, da cui si ottiene quasi la metà della produzione di mondiale di etanolo (27 G litri/anno). L’utilizzo di materiali lignocellulosici come scarti agricolturali e dell’industria forestale, rifiuti urbani, softwood e hardwood, al contrario delle precedenti colture, non presentano gli svantaggi sopra menzionati e per tale motivo il bioetanolo prodotto dalla lignocellulosa viene denominato di seconda generazione. Tuttavia i metodi per produrlo risultano più complessi rispetto ai precedenti per via della difficoltà di rendere biodisponibili gli zuccheri contenuti nella lignocellulosa; per tale motivo è richiesto sia un pretrattamento che l’idrolisi enzimatica. La bagassa è un substrato ottimale per la produzione di bioetanolo di seconda generazione in quanto è disponibile in grandi quantità e ha già mostrato buone rese in etanolo se sottoposta a SSF. La bagassa tal quale è stata inizialmente essiccata all’aria e il contenuto d’acqua corretto al 60%; successivamente è stata posta a contatto per 30 minuti col catalizzatore acido SO2 (2%), al termine dei quali è stata pretrattata nel reattore STEX (10L, 200°C e 5 minuti) in 6 lotti da 1.638kg su peso umido. Lo slurry ottenuto è stato sottoposto a SSF batch (35°C e pH 5) utilizzando enzimi cellulolitici per l’idrolisi e lievito di birra ordinario (Saccharomyces cerevisiae) come consorzio microbico per la fermentazione. Un obiettivo della indagine è stato studiare il rendimento della SSF variando il medium di nutrienti, la concentrazione dei solidi (WIS 5%, 7.5%, 10%) e il carico di zuccheri. Dai risultati è emersa sia una buona attività enzimatica di depolimerizzazione della cellulosa che un elevato rendimento di fermentazione, anche per via della bassa concentrazione di inibitori prodotti nello stadio di pretrattamento come acido acetico, furfuraldeide e HMF. Tuttavia la concentrazione di etanolo raggiunta non è stata valutata sufficientemente alta per condurre a scala pilota un eventuale distillazione con bassi costi energetici. Pertanto, sono stati condotti ulteriori esperimenti SSF batch con addizione di melassa da barbabietola (Beta vulgaris), studiandone preventivamente i rendimenti attraverso fermentazioni alle stesse condizioni della SSF. I risultati ottenuti hanno suggerito che con ulteriori accorgimenti si potranno raggiungere gli obiettivi preposti. E’ stato inoltre indagato il rendimento energetico del processo di produzione di bioetanolo mediante SSF di bagassa con aggiunta di melassa in funzione delle variabili più significative. Per la modellazione si è fatto ricorso al software AspenPlus®, conducendo l’analisi di sensitività del mix energetico in uscita dall’impianto al variare del rendimento di SSF e dell’addizione di saccarosio. Dalle simulazioni è emerso che, al netto del fabbisogno entalpico di autosostentamento, l’efficienza energetica del processo varia tra 0.20 e 0.53 a seconda delle condizioni; inoltre, è stata costruita la curva dei costi energetici di distillazione per litro di etanolo prodotto in funzione delle concentrazioni di etanolo in uscita dalla fermentazione. Infine sono già stati individuati fattori su cui è possibile agire per ottenere ulteriori miglioramenti sia in laboratorio che nella modellazione di processo e, di conseguenza, produrre con alta efficienza energetica bioetanolo ad elevato potenziale di mitigazione dell’effetto serra.

Relevância:

0.00% 0.00%

Publicador:

Resumo:

La presente tesi riguarda lo studio di procedimenti di ottimizzazione di sistemi smorzati. In particolare, i sistemi studiati sono strutture shear-type soggette ad azioni di tipo sismico impresse alla base. Per effettuare l’ottimizzazione dei sistemi in oggetto si agisce sulle rigidezze di piano e sui coefficienti di smorzamento effettuando una ridistribuzione delle quantità suddette nei piani della struttura. È interessante effettuare l’ottimizzazione di sistemi smorzati nell’ottica della progettazione antisismica, in modo da ridurre la deformata della struttura e, conseguentemente, anche le sollecitazioni che agiscono su di essa. Il lavoro consta di sei capitoli nei quali vengono affrontate tre procedure numerico-analitiche per effettuare l’ottimizzazione di sistemi shear-type. Nel primo capitolo si studia l’ottimizzazione di sistemi shear-type agendo su funzioni di trasferimento opportunamente vincolate. In particolare, le variabili di progetto sono le rigidezze di piano, mentre i coefficienti di smorzamento e le masse di piano risultano quantità note e costanti durante tutto il procedimento di calcolo iterativo; per effettuare il controllo dinamico della struttura si cerca di ottenere una deformata pressoché rettilinea. Tale condizione viene raggiunta ponendo le ampiezze delle funzioni di trasferimento degli spostamenti di interpiano pari all’ampiezza della funzione di trasferimento del primo piano. Al termine della procedura si ottiene una ridistribuzione della rigidezza complessiva nei vari piani della struttura. In particolare, si evince un aumento della rigidezza nei piani più bassi che risultano essere quelli più sollecitati da una azione impressa alla base e, conseguentemente, si assiste ad una progressiva riduzione della variabile di progetto nei piani più alti. L’applicazione numerica di tale procedura viene effettuata nel secondo capitolo mediante l’ausilio di un programma di calcolo in linguaggio Matlab. In particolare, si effettua lo studio di sistemi a tre e a cinque gradi di libertà. La seconda procedura numerico-analitica viene presentata nel terzo capitolo. Essa riguarda l’ottimizzazione di sistemi smorzati agendo simultaneamente sulla rigidezza e sullo smorzamento e consta di due fasi. La prima fase ricerca il progetto ottimale della struttura per uno specifico valore della rigidezza complessiva e dello smorzamento totale, mentre la seconda fase esamina una serie di progetti ottimali in funzione di diversi valori della rigidezza e dello smorzamento totale. Nella prima fase, per ottenere il controllo dinamico della struttura, viene minimizzata la somma degli scarti quadratici medi degli spostamenti di interpiano. Le variabili di progetto, aggiornate dopo ogni iterazione, sono le rigidezze di piano ed i coefficienti di smorzamento. Si pone, inoltre, un vincolo sulla quantità totale di rigidezza e di smorzamento, e i valori delle rigidezze e dei coefficienti di smorzamento di ogni piano non devono superare un limite superiore posto all’inizio della procedura. Anche in questo caso viene effettuata una ridistribuzione delle rigidezze e dei coefficienti di smorzamento nei vari piani della struttura fino ad ottenere la minimizzazione della funzione obiettivo. La prima fase riduce la deformata della struttura minimizzando la somma degli scarti quadrarici medi degli spostamenti di interpiano, ma comporta un aumento dello scarto quadratico medio dell’accelerazione assoluta dell’ultimo piano. Per mantenere quest’ultima quantità entro limiti accettabili, si passa alla seconda fase in cui si effettua una riduzione dell’accelerazione attraverso l’aumento della quantità totale di smorzamento. La procedura di ottimizzazione di sistemi smorzati agendo simultaneamente sulla rigidezza e sullo smorzamento viene applicata numericamente, mediante l’utilizzo di un programma di calcolo in linguaggio Matlab, nel capitolo quattro. La procedura viene applicata a sistemi a due e a cinque gradi di libertà. L’ultima parte della tesi ha come oggetto la generalizzazione della procedura che viene applicata per un sistema dotato di isolatori alla base. Tale parte della tesi è riportata nel quinto capitolo. Per isolamento sismico di un edificio (sistema di controllo passivo) si intende l’inserimento tra la struttura e le sue fondazioni di opportuni dispositivi molto flessibili orizzontalmente, anche se rigidi in direzione verticale. Tali dispositivi consentono di ridurre la trasmissione del moto del suolo alla struttura in elevazione disaccoppiando il moto della sovrastruttura da quello del terreno. L’inserimento degli isolatori consente di ottenere un aumento del periodo proprio di vibrare della struttura per allontanarlo dalla zona dello spettro di risposta con maggiori accelerazioni. La principale peculiarità dell’isolamento alla base è la possibilità di eliminare completamente, o quantomeno ridurre sensibilmente, i danni a tutte le parti strutturali e non strutturali degli edifici. Quest’ultimo aspetto è importantissimo per gli edifici che devono rimanere operativi dopo un violento terremoto, quali ospedali e i centri operativi per la gestione delle emergenze. Nelle strutture isolate si osserva una sostanziale riduzione degli spostamenti di interpiano e delle accelerazioni relative. La procedura di ottimizzazione viene modificata considerando l’introduzione di isolatori alla base di tipo LRB. Essi sono costituiti da strati in elastomero (aventi la funzione di dissipare, disaccoppiare il moto e mantenere spostamenti accettabili) alternati a lamine in acciaio (aventi la funzione di mantenere una buona resistenza allo schiacciamento) che ne rendono trascurabile la deformabilità in direzione verticale. Gli strati in elastomero manifestano una bassa rigidezza nei confronti degli spostamenti orizzontali. La procedura di ottimizzazione viene applicata ad un telaio shear-type ad N gradi di libertà con smorzatori viscosi aggiunti. Con l’introduzione dell’isolatore alla base si passa da un sistema ad N gradi di libertà ad un sistema a N+1 gradi di libertà, in quanto l’isolatore viene modellato alla stregua di un piano della struttura considerando una rigidezza e uno smorzamento equivalente dell’isolatore. Nel caso di sistema sheat-type isolato alla base, poiché l’isolatore agisce sia sugli spostamenti di interpiano, sia sulle accelerazioni trasmesse alla struttura, si considera una nuova funzione obiettivo che minimizza la somma incrementata degli scarti quadratici medi degli spostamenti di interpiano e delle accelerazioni. Le quantità di progetto sono i coefficienti di smorzamento e le rigidezze di piano della sovrastruttura. Al termine della procedura si otterrà una nuova ridistribuzione delle variabili di progetto nei piani della struttura. In tal caso, però, la sovrastruttura risulterà molto meno sollecitata in quanto tutte le deformazioni vengono assorbite dal sistema di isolamento. Infine, viene effettuato un controllo sull’entità dello spostamento alla base dell’isolatore perché potrebbe raggiungere valori troppo elevati. Infatti, la normativa indica come valore limite dello spostamento alla base 25cm; valori più elevati dello spostamento creano dei problemi soprattutto per la realizzazione di adeguati giunti sismici. La procedura di ottimizzazione di sistemi isolati alla base viene applicata numericamente mediante l’utilizzo di un programma di calcolo in linguaggio Matlab nel sesto capitolo. La procedura viene applicata a sistemi a tre e a cinque gradi di libertà. Inoltre si effettua il controllo degli spostamenti alla base sollecitando la struttura con il sisma di El Centro e il sisma di Northridge. I risultati hanno mostrato che la procedura di calcolo è efficace e inoltre gli spostamenti alla base sono contenuti entro il limite posto dalla normativa. Giova rilevare che il sistema di isolamento riduce sensibilmente le grandezze che interessano la sovrastruttura, la quale si comporta come un corpo rigido al di sopra dell’isolatore. In futuro si potrà studiare il comportamento di strutture isolate considerando diverse tipologie di isolatori alla base e non solo dispositivi elastomerici. Si potrà, inoltre, modellare l’isolatore alla base con un modello isteretico bilineare ed effettuare un confronto con i risultati già ottenuti per il modello lineare.