837 resultados para Stabilité génomique
Resumo:
L’écomusée aura vécu ses heures de gloire, partagé entre le scepticisme et l’adhésion inconditionnelle. Point de rencontre et synthèse des musées de pays, de la vague participative issue des mouvements de socialisation dans le monde, de l’éveil d’un sentiment de nostalgie et de précarité face aux patrimoines et aux identités mises à mal pendant le second conflit mondial, le questionnement et le rejet de valeurs jusque là considérées comme les refuges sûrs de la stabilité, par la continuité, des sociétés, l’avènement de l’écomusée représente à la fois un phénomène de prise de conscience de la globalité des rapports humains entretenue avec leurs environnements respectifs, aussi de rupture en introduisant, dans les meilleurs cas, la dimension critique de questionnement et de refus s’adressant aux systèmes et aux mentalités paralysantes qu’ils entretiennent pour en assurer le maintiens.
Resumo:
Avant-proposParfois pour le meilleur et parfois pour le pire, notre monde est un monde globalisé.Nous connaissons actuellement une profonde crise financière à l'échelle planétaire. Fin octobre 2008, le Conseil des chefs de secrétariat des organismes des Nations unies pour la coordination (CEB) déclarait que «la crise que nous traversons aujourd'Hui va avoir des répercussions sur tous les pays, développés et en développement, mais les effets les plus graves seront ressentis essentiellement par ceux qui ne sont pour rien dans le déclenchement de cette crise, à savoir les pauvres des pays en développement».Avant que cette crise n'éclate, Alain Rouquié1 affirmait déjà : «l'état est de retour. Son rôle économique et social pour atténuer les chocs extérieurs et l'impact d'une concurrence sans frontières est à l'ordre du jour».Selon Rouquié, l'ouverture et les réformes structurelles des années quatre-vingt, aussi douloureuses qu'elles aient été, ont eu une utilité fonctionnelle durable. Le problème, dit-il, est que ces réformes ont été accompagnées d'une idéologie opportuniste qui absolutisait le recours à la «main invisible» du marché dans tous les domaines. Ainsi, au nom des nécessités d'une économie mondialisée, l'état, était dénoncé comme un obstacle à la croissance et au progrès. Le fondamentalisme dogmatique et anti-étatique de marché imposait une recette universelle, non discutable et anti-démocratique.L'histoire récente nous démontre qu'il n'existe pas une façon unique de s'intégrer aux courants mondiaux des biens et des capitaux et que l'ensemble des réformes (ouverture, privatisations, dérégulation) considéré à un moment donné comme la seule modalité d'intégration à l'économie mondiale, a été à l'origine d'une série de crises successives en Amérique latine et dans les Caraïbes dont le bilan est étique en termes de réalisations et lourd en frustrations; par ailleurs, les voies hétérodoxes vers la globalisation empruntées par la Chine et par l'inde, par exemple, fortement teintées de caractéristiques idiosyncrasiques en matière de politique économique et dont la direction est restée aux mains des états nationaux affichent des résultats plus positifs.Ce document rend compte des idées centrales de publications récentes de la Commission économique pour l'Amérique latine et les Caraïbes (CEPALC). Les principales sources des thèses dans lesquelles s'inscrivent les idées développées dans les pages qui suivent sont: Mondialisation et développement2, publié en 2002, et Desarrollo productivo en economías abiertas3, publié en 2004. l'information quantitative plus conjoncturelle et les analyses à court terme ont été extraites de différentes éditions des publications annuelles : Balance preliminar de las economías de América Latina y el Caribe, et Estudio económico de América Latina y el Caribe.l'Amérique latine et les Caraïbes a été la région du monde en développement qui a le plus misé sur le programme d'internationalisation et de libéralisation économiques, cristallisé dans ce qui a été connu comme le Consensus de Washington. Les années 1990 ont été marquées par une vague de réformes en ce sens dans tout le continent, dont les résultats, cependant, ont été maigres. Au bilan, certes, des aspects favorables comme l'Atténuation des déséquilibres budgétaires, la fin des processus chroniques d'Hyperinflation qui sévissait dans la région, la modernisation de secteurs spécifiques de l'Appareil de production et l'essor des exportations. Mais dans la colonne des éléments négatifs, on ne peut manquer d'inscrire un taux de croissance faible et volatil, le démantèlement de l'Appareil de production, la hausse du chômage, de l'informalité et de l'inégalité, l'Accroissement de la vulnérabilité extérieure et la dégradation des relations macroéconomiques clés.La région de l'Amérique latine et des Caraïbes est sortie du marasme qui a caractérisé la fin des années 90 et le début de la présente décennie et a retrouvé la voie de la croissance. En effet, l'Année 2007 a été la cinquième année consécutive d'augmentation du produit et, en raison des projections positives pour l'Année 2008, le taux moyen d'augmentation du PIB par habitant pour la période 2003 - 2008 devrait être légèrement supérieur à 3 %, ce qui en ferait la période de croissance la plus marquée et la plus longue depuis 1980.Cette évolution positive a été favorisée par un contexte international propice. l'Augmentation du produit mondial ainsi que l'essor du commerce international, le relèvement du cours international de nombreux produits de base exportés par la région et le faible niveau des taux d'intérêt (situation qui a commencé à se modifier vers le milieu de l'Année 2004 avec le changement de signede la politique monétaire adopté par la Réserve fédérale des états-Unis) se sont avérés favorables à la croissance du PIB ainsi qu'à l'Apparition de caractéristiques inédites dans un processus de croissance soutenue dans la région. C'est ainsi que les pays ont pu mettre fin à la contrainte extérieure, grâce à un excédent continu sur le compte courant résultant à son tour de l'évolution favorable des termes de l'échange, de l'Accélération de la tendance à long terme à la hausse du taux de croissance des exportations et à la forte augmentation des fonds envoyés par les émigrants.Dans le passé, néanmoins, des conjonctures tout aussi positives sur les marchés internationaux n'avaient pas été accompagnées d'une bonne performance régionale. En l'occurrence, l'orientation adoptée en matière de politique économique par de nombreux états de l'Amérique latine et des Caraïbes a joué un rôle déterminant pour tirer parti de facteurs qui, dans un autre contexte, n'auraient pu constituer qu'une autre opportunité perdue. l'obtention d'excédents primaires réitérés dans les comptes publics (grâce à un recouvrement accru et à une attitude prudente dans la gestion des dépenses) ainsi que la volonté de maintenir un taux de change réel compétitif sont des mesures qui, dans le cadre de ce scénario international propice, autorisent un optimisme modéré quant à l'évolution à moyen terme de la région.Cependant, dans un monde en pleine croissance, une gestion macroéconomique ordonnée n'est pas suffisante pour asseoir un processus de développement. l'un des héritages des années 90 est L'hétérogénéité croissante de la structure de production qui s'est traduite par l'exclusion massive de certains agents économiques alors que d'autres progressaient vers la modernisation productive.On peut distinguer aujourd'Hui, dans l'économie latino-américaine, trois grands groupes d'unités productives en fonction de leur degré de formalisation et de leur taille. Le premier groupe est celui composé par les grandes entreprises, dont beaucoup sont transnationales et dont les niveaux de productivité sont proches de la barre internationale mais qui, dans le même temps, n'ont guère de liens avec l'économie locale et présentent une très faible capacité endogène de générer des innovations. Le deuxième groupe englobe les petites et moyennes entreprises du secteur formel qui éprouvent généralement de grandes difficultés d'accès à certains marchés, en particulier au marché financier et à celui des services technologiques, et qui présentent surtout une faible capacité d'articulation productive au sein même du groupe et avec les plus grandes entreprises. Le dernier groupe est celui des micro et petites entreprises du secteur informel qui, en raison de leur structure et de leurs capacités, affichent la productivité relative la plus faible et fonctionnent dans un contexte qui les prive de toute possibilité de développement et d'apprentissage. En outre, les travailleurs salariés et les chefs de micro-entreprises de ce secteur n'ont aucune forme de protection sociale contre les risques qui les menacent, incluant la perte d'emploi ou de revenus.Le développement productif de cette véritable économie à trois vitesses passe par l'Adoption de politiques publiques volontaristes propres à niveler le terrain de jeu grâce à une structure différenciée d'aides et d'incitations.l'Administration de la macroéconomie et les politiques productives ne représentent toutefois qu'une partie des initiatives nécessaires pour jeter les bases d'un processus de développement économique à long terme. Il est indispensable de réparer la déchirure du tissu social qui est l'un des effets secondaires les plus graves de l'expérience de politique mise en oeuvre dans les années 90. l'Aggravation de L'hétérogénéité productive et de l'inégalité, ainsi que l'Augmentation de l'informalité et du chômage ne se traduisent pas seulement en pertes statiques et dynamiques en termes de niveau du produit et de taux de croissance à long terme; elles constituent également une menace latente à la cohabitation démocratique et à l'unité des perspectives et d'objectifs qui doit accompagner les processus de changement historique inévitablement impliqués dans le développement économique.C'est pourquoi la CEPALC a proposé la création d'un pacte de cohésion sociale fondé sur l'Adoption d'engagements réciproques entre les différents secteurs sociaux et l'état afin de jeter les bases d'un avenir inclusif du point de vue social dans la région. Ce pacte repose sur plusieurs piliers: la cohérence vis-à-vis des fondements de la politique économique, la création d'emplois, la protection sociale, ainsi que l'éducation et la formation professionnelle pour l'ensemble de la population.Depuis l'époque de Celso Furtado et Raúl Prebisch, des concepts comme le schéma centre - périphérie et l'étude des tendances à long terme des termes de l'échange, l'importance de la contrainte extérieure pour la stabilité macroéconomique des économies moins développées, la nécessité de promouvoir, à partir de l'état, la croissance de certaines activités ou de certains secteurs productifs considérés comme stratégiques ainsi que le lien entre le phénomène inflationniste et l'Action distributive ont nourri le débat intellectuel dans le continent et inspiré les responsables de la prise de décision de différents gouvernements et à différentes périodes.La synthèse de documents récents présentée ici prétend suivre cette même voie de construction d'une pensée locale qui se découvre universelle en révélant les particularités de son contexte et qui trouve sa justification dans la volonté de contribuer à l'émergence d'acteurs sociaux et de réalités nationales souvent oubliés.Devant la profondeur de la crise d'origine financière qui touche toute la planète et dont les répercussions les plus graves seront ressenties par les pauvres des pays en développement, nous rejoignons Rouquié pour dire, au sens vertueux, que l'état est de retour pour s'acquitter des tâches que le marché a été, à lui seul, incapable de réaliser.Alicia BárcenaSecrétaire exécutiveCommission économique pour l'Amériquelatine et les Caraïbes (CEPALC)RésuméCe livre de la CEPALC est publié conjointement avec la Coopération française et contient deux essais sur l'Amérique latine et les Caraïbes où sont essentiellement abordés les défis qui se posent à la région au seuil de ce millénaire. Ces premières années du millénaire se caractérisent d'ores et déjà par une conjoncture économique difficile dont il est encore difficile de mesurer les conséquences.Le premier article rédigé par des experts de la CEPALC rend compte des idées centrales de publications récentes de la Commission. Les thèses dans lesquelles s'inscrivent les idées développées dans les pages qui suivent émanent des publications ci-après: Mondialisation et développement, publié en 2002, et Desarrollo productivo en economías abiertas, publié en 2004. l'information quantitative plus conjoncturelle et les analyses à court terme ont été extraites de différentes éditions des publications annuelles: Balance preliminar de las economías de América Latina y el Caribe, et Estudio económico de América Latina.Le deuxième article, rédigé par Alain Rouquié, expert en questions latino-américaines et président de la Maison de l'Amérique latine à Paris, propose, selon les propres dires de l'Auteur, une série de réflexions libres sur l'Amérique latine.La publication conjointe de ces deux essais met en relief une complémentarité de perspectives issues des deux hémisphères du globe, ce qui confère à cet ouvrage un intérêt tout particulier.
Resumo:
Inclut la bibliographie
Resumo:
Pós-graduação em Ciência e Tecnologia de Materiais - FC
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Pós-graduação em Química - IQ
Resumo:
Ce travail vise à etudier le genre lettre de lecteur publiés dans deux magazines. La lettre de lecteur est un texte publié dans une section spécifique du jornal et du magazine à travers lequel les lecteures dialoguent avec les éditeures du magazine et avec les autres lecteures, généralement ayant comme thème les textes du maganize publié dans les éditions précédentes. Pour Bakhtine (1997, p.302), “ nous apprenons à mouler notre discours aux formes du genre ». En reliant les genres de discours à l’activité sociale, à l’interaction, Bakhtine affirme que c’est la situation sociale e les participants immédiats qui déterminent la forme e le style de l’énoncé. Compte tenu de la nécessaire présence des genres de discours dans des actvités langagières des sujets, justifie l’importance de l’étude des genres dans les diverses pratiques sociales. À partir des questions soulevées par Circle de Bakthine, en particulier ceux par rapport à genre de discours, ce travail a pour but discuter, dans une perspective dialogique bakhtinienne, les différentes destinataires des magazines Veja et Nova Escola conduirait à des changements du genre lettre de lecteur, principalement en ce qui concerne les aspects stylistiques. Ainsi, nous avons l’intention de discuter le genre lettre de lecteur e de sa ralation à la sphère de l’activité journalistique dans le but de réfléchir sur la stabilité et l’instabilité du genre. Le corpus se compose des lettres de lecteurs tirés de quatre éditions des magazines Veja et Nova Escola, a été diffusé en 2011. La recherche montre qu’il y a une instabilité dans le genre lettre de lecteur dans la sphère journalistique, affecté par d’autres genres comme genres de la sphère pédagogique, didactiques et de instruction. Les lettres aussi dialoguent avec le genre confessionnel et de confidence
Resumo:
Ce travail a le but de quantifier les formes les plus courantes d’adjetifs en portuguais brésilien, il s’agit d’un travail qui porte sur les usages synchroniques de la langue. Notre objetif c’est d’indentifier les formations lexicales propres aux adjetifs et de quantifier les usages de ces fomations pour en découvrir les tendances synchroniques de ces usages en portuguais brésilien. Le corpus est de base écrite, composé des lettres des lecteurs de magazine, ce qui permet plus de stabilité pour l’analyse. Vu qu’il s’agit d’un suport d’expression populaire le corpus nous a possibilité de faire un approche au langage plus informelle dont la façon d’expression permet la formation de vocabulaires les plus insolites et les plus récentes, tandis que l’écrite formelle résiste plus aux changements. La recheche des formes nous a donné des résultats quantitatifs des formes déjà connues, les plus nouvelles aussi et des usages des mots appartenants à d’autres classes gramaticales qui avaient une valeur d’adjetive dans quelques contextes spécifiques, en expressions typiques de langage informel. Ce travail, donc, contribue comme um petit portrait de la réalité lexicale brésilienne dans l’usage dynamique de la langue
Resumo:
Questo progetto di ricerca, è stato sviluppato per studiare le caratteristiche anatomofunzionali che definiscono l’articolazione del gomito, ed in modo articolare la presenza dell’angolazione valga che origina dalla diversa orientazione degli assi meccanici dell’avambraccio e del braccio e, denominata in letteratura come carrying angle. L’obiettivo principale di questo lavoro - meglio espresso nei diversi capitoli - è stato, quello di identificare un nuovo approccio di misura per la stima di questo angolo, utilizzabile sia per gli studi di biomeccanica articolare, che per gli studi di analisi del movimento per l’arto superiore. Il primo obiettivo è stato quello di scegliere un algoritmo di calcolo che rispettasse le caratteristiche dell’articolazione, ed in modo particolare abile a minimizzare gli errori introdotti sia nella fase di acquisizione dei punti di repere anatomici, che in quella legata alla predizione del movimento di flesso-estensione, con un modello matematico. Per questo motivo abbiamo dovuto realizzare una serie di misure in un primo tempo su due cadaveri di arto superiore, poi, seguendo le regole classiche per la validazione dell’approccio metodologico adottato, si sono realizzate misure in-vivo, prima in massima estensione e poi durante il movimento. Inizialmente abbiamo pensato di comparare le misure lineari relative alle ampiezze del braccio (ampiezza tra l’epicondilo laterale e mediale) e dell’avambraccio (ampiezza tra lo stiloide ulnare e radiale) con quelle ottenute mediante un antropometro; successivamente dopo aver verificato la ripetibilità tra i diversi operatori nell’ acquisizione dei punti di repere anatomici con il digitalizzatore Faro Arm, abbiamo comparato le misure ottenute relative al carrying angle con quelle di un goniometro standard, classicamente utilizzato nella pratica clinica per la definizione dei range di movimento dell’arto superiore. Infine, considerando la bontà delle misure ottenute, abbiamo riproposto tale metodologia con stumenti stereofotogrammetrici per l’analisi del movimento (VICON System), ottenendo la stessa stabilit`a nell’andamento del carrying angle in funzione della flessione, sia come riportato dagli studi in letteratura, sia come riscontrato nel nostro studio in-vitro. In conclusione, questo lavoro di ricerca ha evidenziato (sia per i risultati ottenuti, che per la elevata numerosità dei soggetti testati), come gli esseri umani presentino una grande variabilità individuale nel valore di questo angolo, e di come questo possa aiutare per la corretta definizione di un modello 3-D dell’arto superiore. Pertanto, gli studi futuri sulla biomeccanica dell’arto superiore dovrebbero includere sempre la valutazione di questa misura.
Resumo:
Questo lavoro di tesi è stato suddiviso in tre parti. L’argomento principale è stato lo “Studio della componente antiossidante di oli ottenuti da olive mediante l’utilizzo di diversi sistemi e parametri tecnologici”. E’ ben noto come la qualità ossidativa di un olio di oliva dipenda oltre che dalla sua composizione in acidi grassi, dalla presenza di composti caratterizzati da un elevata attività antiossidante, ovvero le sostanze fenoliche. I composti fenolici contribuiscono quindi in maniera preponderante alla shelf life dell’olio extravergine di oliva. Inoltre sono state riscontrate delle forti correlazione tra alcune di queste sostanze e gli attributi sensoriali positivi di amaro e piccante. E’ poi da sottolineare come il potere antiossidante dei composti fenolici degli oli vergini di oliva, sia stato negli ultimi anni oggetto di considerevole interesse, poiché correlato alla protezione da alcune patologie come ad esempio quelle vascolari, degenerative e tumorali. Il contenuto delle sostanze fenoliche negli oli di oliva dipende da diversi fattori: cultivar, metodo di coltivazione, grado di maturazione delle olive e ovviamente dalle operazioni tecnologiche poiché possono variare il quantitativo di questi composti estratto. Alla luce di quanto appena detto abbiamo valutato l’influenza dei fattori agronomici (metodi di agricoltura biologica, integrata e convenzionale) e tecnologici (riduzione della temperatura della materia prima, aggiunta di coadiuvanti in fase di frangitura e di gramolatura, confronto tra tre oli extravergini di oliva ottenuti mediante diversi sistemi tecnologici) sul contenuto in composti fenolici di oli edibili ottenuti da olive (paper 1-3-4). Oltre alle sostanze fenoliche, negli oli di oliva sono presenti altri composti caratterizzati da proprietà chimiche e nutrizionali, tra questi vi sono i fitosteroli, ovvero gli steroli tipici del mondo vegetale, che rappresentano la frazione dell’insaponificabile quantitativamente più importante dopo gli idrocarburi. La composizione quali-quantitativa degli steroli di un olio di oliva è una delle caratteristiche analitiche più importanti nella valutazione della sua genuinità; infatti la frazione sterolica è significativamente diversa in funzione dell’origine botanica e perciò viene utilizzata per distinguere tra di loro gli oli e le loro miscele. Il principale sterolo nell’olio di oliva è il β- sitosterolo, la presenza di questo composto in quantità inferiore al 90% è un indice approssimativo dell’aggiunta di un qualsiasi altro olio. Il β-sitosterolo è una sostanza importante dal punto di vista della salute, poiché si oppone all’assorbimento del colesterolo. Mentre in letteratura si trovano numerosi lavori relativi al potere antiossidante di una serie di composti presenti nell’olio vergine di oliva (i già citati polifenoli, ma anche carotenoidi e tocoferoli) e ricerche che dimostrano invece come altri composti possano promuovere l’ossidazione dei lipidi, per quanto riguarda il potere antiossidante degli steroli e dei 4- metilsteroli, vi sono ancora poche informazioni. Per questo è stata da noi valutata la composizione sterolica in oli extravergini di oliva ottenuti con diverse tecnologie di estrazione e l’influenza di questa sostanza sulla loro stabilità ossidativa (paper 2). E’ stato recentemente riportato in letteratura come lipidi cellulari evidenziati attraverso la spettroscopia di risonanza nucleare magnetica (NMR) rivestano una importanza strategica da un punto di vista funzionale e metabolico. Questi lipidi, da un lato un lato sono stati associati allo sviluppo di cellule neoplastiche maligne e alla morte cellulare, dall’altro sono risultati anche messaggeri di processi benigni quali l’attivazione e la proliferazione di un normale processo di crescita cellulare. Nell’ambito di questa ricerca è nata una collaborazione tra il Dipartimento di Biochimica “G. Moruzzi” ed il Dipartimento di Scienze degli Alimenti dell’Università di Bologna. Infatti, il gruppo di lipochimica del Dipartimento di Scienze degli Alimenti, a cui fa capo il Prof. Giovanni Lercker, da sempre si occupa dello studio delle frazioni lipidiche, mediante le principali tecniche cromatografiche. L’obiettivo di questa collaborazione è stato quello di caratterizzare la componente lipidica totale estratta dai tessuti renali umani sani e neoplastici, mediante l’utilizzo combinato di diverse tecniche analitiche: la risonanza magnetica nucleare (1H e 13C RMN), la cromatografia su strato sottile (TLC), la cromatografia liquida ad alta prestazione (HPLC) e la gas cromatografia (GC) (paper 5-6-7)
Resumo:
Da ormai sette anni la stazione permanente GPS di Baia Terranova acquisisce dati giornalieri che opportunamente elaborati consentono di contribuire alla comprensione della dinamica antartica e a verificare se modelli globali di natura geofisica siano aderenti all’area di interesse della stazione GPS permanente. Da ricerche bibliografiche condotte si è dedotto che una serie GPS presenta molteplici possibili perturbazioni principalmente dovute a errori nella modellizzazione di alcuni dati ancillari necessari al processamento. Non solo, da alcune analisi svolte, è emerso come tali serie temporali ricavate da rilievi geodetici, siano afflitte da differenti tipologie di rumore che possono alterare, se non opportunamente considerate, i parametri di interesse per le interpretazioni geofisiche del dato. Il lavoro di tesi consiste nel comprendere in che misura tali errori, possano incidere sui parametri dinamici che caratterizzano il moto della stazione permanente, facendo particolare riferimento alla velocità del punto sul quale la stazione è installata e sugli eventuali segnali periodici che possono essere individuati.
Resumo:
La tesi tratta di strumenti finalizzati alla valutazione dello stato conservativo e di supporto all'attività di manutenzione dei ponti, dai più generali Bridge Management Systems ai Sistemi di Valutazione Numerica della Condizione strutturale. Viene proposto uno strumento originale con cui classificare i ponti attraverso un Indice di Valutazione Complessiva e grazie ad esso stabilire le priorità d'intervento. Si tara lo strumento sul caso pratico di alcuni ponti della Provincia di Bologna. Su un ponte in particolare viene realizzato un approfondimento specifico sulla determinazione approssimata dei periodi propri delle strutture da ponte. Si effettua un confronto dei risultati di alcune modellazioni semplificate in riferimento a modellazioni dettagliate e risultati sperimentali.
Resumo:
Le ricerche di carattere eustatico, mareografico, climatico, archeologico e geocronologico, sviluppatesi soprattutto nell’ultimo ventennio, hanno messo in evidenza che gran parte delle piane costiere italiane risulta soggetta al rischio di allagamento per ingressione marina dovuta alla risalita relativa del livello medio del mare. Tale rischio è la conseguenza dell’interazione tra la presenza di elementi antropici e fenomeni di diversa natura, spesso difficilmente discriminabili e quantificabili, caratterizzati da magnitudo e velocità molto diverse tra loro. Tra le cause preponderanti che determinano l’ingressione marina possono essere individuati alcuni fenomeni naturali, climatici e geologici, i quali risultano fortemente influenzati dalle attività umane soprattutto a partire dal XX secolo. Tra questi si individuano: - la risalita del livello del mare, principalmente come conseguenza del superamento dell’ultimo acme glaciale e dello scioglimento delle grandi calotte continentali; - la subsidenza. Vaste porzioni delle piane costiere italiane risultano soggette a fenomeni di subsidenza. In certe zone questa assume proporzioni notevoli: per la fascia costiera emiliano-romagnola si registrano ratei compresi tra 1 e 3 cm/anno. Tale subsidenza è spesso il risultato della sovrapposizione tra fenomeni naturali (neotettonica, costipamento di sedimenti, ecc.) e fenomeni indotti dall’uomo (emungimenti delle falde idriche, sfruttamento di giacimenti metaniferi, escavazione di materiali per l’edilizia, ecc.); - terreni ad elevato contenuto organico: la presenza di depositi fortemente costipabili può causare la depressione del piano di campagna come conseguenza di abbassamenti del livello della falda superficiale (per drenaggi, opere di bonifica, emungimenti), dello sviluppo dei processi di ossidazione e decomposizione nei terreni stessi, del costipamento di questi sotto il proprio peso, della carenza di nuovi apporti solidi conseguente alla diminuita frequenza delle esondazioni dei corsi d’acqua; - morfologia: tra i fattori di rischio rientra l’assetto morfologico della piana e, in particolare il tipo di costa (lidi, spiagge, cordoni dunari in smantellamento, ecc. ), la presenza di aree depresse o comunque vicine al livello del mare (fino a 1-2 m s.l.m.), le caratteristiche dei fondali antistanti (batimetria, profilo trasversale, granulometria dei sedimenti, barre sommerse, assenza di barriere biologiche, ecc.); - stato della linea di costa in termini di processi erosivi dovuti ad attività umane (urbanizzazione del litorale, prelievo inerti, costruzione di barriere, ecc.) o alle dinamiche idro-sedimentarie naturali cui risulta soggetta (correnti litoranee, apporti di materiale, ecc. ). Scopo del presente studio è quello di valutare la probabilità di ingressione del mare nel tratto costiero emiliano-romagnolo del Lido delle Nazioni, la velocità di propagazione del fronte d’onda, facendo riferimento allo schema idraulico del crollo di una diga su letto asciutto (problema di Riemann) basato sul metodo delle caratteristiche, e di modellare la propagazione dell’inondazione nell’entroterra, conseguente all’innalzamento del medio mare . Per simulare tale processo è stato utilizzato il complesso codice di calcolo bidimensionale Mike 21. La fase iniziale di tale lavoro ha comportato la raccolta ed elaborazione mediante sistema Arcgis dei dati LIDAR ed idrografici multibeam , grazie ai quali si è provveduto a ricostruire la topo-batimetria di dettaglio della zona esaminata. Nel primo capitolo è stato sviluppato il problema del cambiamento climatico globale in atto e della conseguente variazione del livello marino che, secondo quanto riportato dall’IPCC nel rapporto del 2007, dovrebbe aumentare al 2100 mediamente tra i 28 ed i 43 cm. Nel secondo e terzo capitolo è stata effettuata un’analisi bibliografica delle metodologie per la modellazione della propagazione delle onde a fronte ripido con particolare attenzione ai fenomeni di breaching delle difese rigide ed ambientali. Sono state studiate le fenomenologie che possono inficiare la stabilità dei rilevati arginali, realizzati sia in corrispondenza dei corsi d’acqua, sia in corrispondenza del mare, a discapito della protezione idraulica del territorio ovvero dell’incolumità fisica dell’uomo e dei territori in cui esso vive e produce. In un rilevato arginale, quale che sia la causa innescante la formazione di breccia, la generazione di un’onda di piena conseguente la rottura è sempre determinata da un’azione erosiva (seepage o overtopping) esercitata dall’acqua sui materiali sciolti costituenti il corpo del rilevato. Perciò gran parte dello studio in materia di brecce arginali è incentrato sulla ricostruzione di siffatti eventi di rottura. Nel quarto capitolo è stata calcolata la probabilità, in 5 anni, di avere un allagamento nella zona di interesse e la velocità di propagazione del fronte d’onda. Inoltre è stata effettuata un’analisi delle condizioni meteo marine attuali (clima ondoso, livelli del mare e correnti) al largo della costa emiliano-romagnola, le cui problematiche e linee di intervento per la difesa sono descritte nel quinto capitolo, con particolare riferimento alla costa ferrarese, oggetto negli ultimi anni di continui interventi antropici. Introdotto il sistema Gis e le sue caratteristiche, si è passati a descrivere le varie fasi che hanno permesso di avere in output il file delle coordinate x, y, z dei punti significativi della costa, indispensabili al fine della simulazione Mike 21, le cui proprietà sono sviluppate nel sesto capitolo.
Resumo:
Lo scopo del presente elaborato è lo studio della regolarità stradale. La regolarità è una caratteristica fondamentale sia dal punto di vista dell’utenza, poiché da essa dipendono il comfort, ma soprattutto, la sicurezza della guida, sia dal punto di vista dell’ente proprietario della strada, perché dalla regolarità dipende la pianificazione della manutenzione della rete viaria, con tutti i pesi economici che essa comporta. Da questa piccola considerazione si comprende perché nell’ultimo secolo l’argomento abbia suscitato sempre maggiore interesse, vedendo la nascita, sin dagli anni ’50, di strumenti sempre più sofisticati, grazie allo sviluppo dell’elettronica, e sempre più veloci nell’acquisizione dei dati, per far fronte al contemporaneo sviluppo della rete viaria. Nel primo capitolo si affronterà la tematica della regolarità stradale, cercando di comprenderne la natura e i suoi livelli di degrado, dei quali viene fatta un’ampia descrizione, comprensiva di cause scatenanti. Inoltre si fa un accenno al Catasto Stradale, poiché costituisce uno strumento essenziale per la gestione dell’infrastruttura viaria e per l’ottimizzazione delle risorse destinate alla sua manutenzione e alla sua sicurezza; infine si parla delle tecnologie finalizzate al rilievo della regolarità. Il secondo capitolo è dedicato al panorama normativo in materia di regolarità stradale. Le varie norme sono commentate nel dettaglio, data l’importanza di una standardizzazione nella calibrazione e nell’uso degli strumenti di rilievo e nelle procedure di stima della regolarità. Il capitolo successivo contiene una trattazione sugli indici di regolarità, ma l’attenzione è in particolar modo rivolta all’IRI, l’indice internazionale di irregolarità. Per le caratteristiche con cui è stato concepito, cioè stabilità temporale, validità e compatibilità, è stato assunto come scala di riferimento internazionale, a cui gli altri indici possono riferirsi. Viene quindi illustrato il significato di IRI, il modello matematico su cui si basa la sua definizione, per passare poi al procedimento analitico e a quello informatico con il quale viene calcolato. Essendo la presente tesi avvenuta in collaborazione con la ditta Siteco Informatica di Bologna, nel capitolo quarto, sono stati analizzati gli strumenti installati sul veicolo ad alto rendimento (VAR) messo a disposizione dalla ditta stessa. Gli strumenti consistono principalmente in dispositivi per il calcolo del posizionamento e dell’assetto del veicolo, in un profilometro laser per il rilievo della regolarità stradale e in un laser scanner, di cui si è tentato di studiarne le potenzialità nell’ambito dell’oggetto di questa tesi. Il percorso di ricerca ha incluso l’esperienza diretta in sito tramite varie campagne di rilievo, per meglio comprendere il mezzo e la natura dei dati ottenuti. Si è quindi ripercorso l’intero processo di elaborazione dei dati grezzi di rilievo, così com’è strutturato per le finalità della ditta collaborante, per utilizzare poi il dato finito per finalità ingegneristiche.