162 resultados para Sviluppo applicazione iOS
Resumo:
Total ankle arthroplasty (TAA) is still not as satisfactory as total hip and total knee arthroplasty. For the TAA to be considered a valuable alternative to ankle arthrodesis, an effective range of ankle mobility must be recovered. The disappointing clinical results of the current generation of TAA are mostly related to poor understanding of the structures guiding ankle joint mobility. A new design (BOX Ankle) has been developed, uniquely able to restore physiologic ankle mobility and a natural relationship between the implanted components and the retained ligaments. For the first time the shapes of the tibial and talar components in the sagittal plane were designed to be compatible with the demonstrated ligament isometric rotation. This resulted in an unique motion at the replaced ankle where natural sliding as well as rolling motion occurs while at the same time full conformity is maintained between the three components throughout the flexion arc. According to prior research, the design features a spherical convex tibial component, a talar component with radius of curvature in the sagittal plane longer than that of the natural talus, and a fully conforming meniscal component. After computer-based modelling and preliminary observations in several trial implantation in specimens, 126 patients were implanted in the period July 2003 – December 2008. 75 patients with at least 6 months follow-up are here reported. Mean age was 62,6 years (range 22 – 80), mean follow-up 20,2 months. The AOFAS clinical score systems were used to assess patient outcome. Radiographs at maximal dorsiflexion and maximal plantar flexion confirmed the meniscalbearing component moves anteriorly during dorsiflexion and posteriorly during plantarflexion. Frontal and lateral radiographs in the patients, show good alignment of the components, and no signs of radiolucency or loosening. The mean AOFAS score was observed to go from 41 pre-op to 74,6 at 6 month follow-up, with further improvement at the following follow-up. These early results reveal satisfactory clinical scores, with good recovery of range of motion and reduction of pain. Radiographic assessment reveals good osteointegration. All these preliminary results confirm biomechanical studies and the validity of this novel ligamentcompatible prosthesis design. Surely it will be important to re-evaluate these patients later.
Resumo:
Among various nanoparticles, noble metal nanoparticles have attracted considerable attention due to their optical, catalytic and conducting properties. This work has been focused on the development of an innovative method of synthesis for the preparation of metal nanosuspensions of Au, Ag, Cu, in order to achieve stable sols, showing suitable features to allow an industrial scale up of the processes. The research was developed in collaboration with a company interested in the large scale production of the studied nanosuspensions. In order to develop a commercial process, high solid concentration, long time colloidal stability and particle size control, are required. Two synthesis routes, differing by the used solvents, have been implemented: polyol based and water based synthesis. In order to achieve a process intensification the microwave heating has been applied. As a result, colloidal nanosuspensions with suitable dimensions, good optical properties, very high solid content and good stability, have been synthesized by simple and environmental friendly methods. Particularly, due to some interesting results an optimized synthesis process has been patented. Both water and polyol based synthesis, developed in the presence of a reducing agent and of a chelating polymer, allowed to obtain particle size-control and colloidal stability by tuning the different parameters. Furthermore, it has been verified that microwave device, due to its rapid and homogeneous heating, provides some advantages over conventional method. In order to optimize the final suspensions properties, for each synthesis it has been studied the effect of different parameters (temperature, time, precursors concentrations, etc) and throughout a specific optimization action a right control on nucleation and growth processes has been achieved. The achieved nanoparticles were confirmed by XRD analysis to be the desired metal phases, even at the lowest synthesis temperatures. The particles showed a diameter, measured by STEM and dynamic light scattering technique (DLS), ranging from 10 to 60 nm. Surface plasmon resonance (SPR) was monitored by UV-VIS spectroscopy confirming its dependence by nanoparticles size and shape. Moreover the reaction yield has been assessed by ICP analysis performed on the unreacted metal cations. Finally, thermal conductivity and antibacterial activity characterizations of copper and silver sols respectively are now ongoing in order to check their application as nanofluid in heat transfer processes and as antibacterial agent.
Resumo:
Supermarkets and hypermarkets still represent a relatively new retailing format in Italy and in its Southern area in particular, where they were introduced decades later than in other Western countries, such as France and the UK in Europe, and the US in America. Nowadays, these retailers have become large organisations potentially capable of influencing local development from an economic, social and urban perspective. The literature concerned with their effects on the local economy, in particular, has focused on labour markets, price dynamics, inter-type competition, instead the impact on macroeconomic factors such as GDP, value added and investments in specific sectors, as agriculture, industry and services. This study tries to fill this gap by empirically investigating associations between key characteristics of these retailers and specific macroeconomic factors.
Resumo:
Benessere delle popolazioni, gestione sostenibile delle risorse, povertà e degrado ambientale sono dei concetti fortemente connessi in un mondo in cui il 20% della popolazione mondiale consuma più del 75% delle risorse naturali. Sin dal 1992 al Summit della Terra a Rio de Janeiro si è affermato il forte legame tra tutela dell’ambiente e riduzione della povertà, ed è anche stata riconosciuta l’importanza di un ecosistema sano per condurre una vita dignitosa, specialmente nelle zone rurali povere dell’Africa, dell’Asia e dell’America Latina. La natura infatti, soprattutto per le popolazioni rurali, rappresenta un bene quotidiano e prezioso, una forma essenziale per la sussistenza ed una fonte primaria di reddito. Accanto a questa constatazione vi è anche la consapevolezza che negli ultimi decenni gli ecosistemi naturali si stanno degradando ad un ritmo impressionate, senza precedenti nella storia della specie umana: consumiamo le risorse più velocemente di quanto la Terra sia capace di rigenerarle e di “metabolizzare” i nostri scarti. Allo stesso modo aumenta la povertà: attualmente ci sono 1,2 miliardi di persone che vivono con meno di un dollaro al giorno, mentre circa metà della popolazione mondiale sopravvive con meno di due dollari al giorno (UN). La connessione tra povertà ed ambiente non dipende solamente dalla scarsità di risorse che rende più difficili le condizioni di vita, ma anche dalla gestione delle stesse risorse naturali. Infatti in molti paesi o luoghi dove le risorse non sono carenti la popolazione più povera non vi ha accesso per motivi politici, economici e sociali. Inoltre se si paragona l’impronta ecologica con una misura riconosciuta dello “sviluppo umano”, l’Indice dello Sviluppo Umano (HDI) delle Nazioni Unite (Cfr. Cap 2), il rapporto dimostra chiaramente che ciò che noi accettiamo generalmente come “alto sviluppo” è molto lontano dal concetto di sviluppo sostenibile accettato universalmente, in quanto i paesi cosiddetti “sviluppati” sono quelli con una maggior impronta ecologica. Se allora lo “sviluppo” mette sotto pressione gli ecosistemi, dal cui benessere dipende direttamente il benessere dell’uomo, allora vuol dire che il concetto di “sviluppo” deve essere rivisitato, perché ha come conseguenza non il benessere del pianeta e delle popolazioni, ma il degrado ambientale e l’accrescimento delle disuguaglianze sociali. Quindi da una parte vi è la “società occidentale”, che promuove l’avanzamento della tecnologia e dell’industrializzazione per la crescita economica, spremendo un ecosistema sempre più stanco ed esausto al fine di ottenere dei benefici solo per una ristretta fetta della popolazione mondiale che segue un modello di vita consumistico degradando l’ambiente e sommergendolo di rifiuti; dall’altra parte ci sono le famiglie di contadini rurali, i “moradores” delle favelas o delle periferie delle grandi metropoli del Sud del Mondo, i senza terra, gli immigrati delle baraccopoli, i “waste pickers” delle periferie di Bombay che sopravvivono raccattando rifiuti, i profughi di guerre fatte per il controllo delle risorse, gli sfollati ambientali, gli eco-rifugiati, che vivono sotto la soglia di povertà, senza accesso alle risorse primarie per la sopravvivenza. La gestione sostenibile dell’ambiente, il produrre reddito dalla valorizzazione diretta dell’ecosistema e l’accesso alle risorse naturali sono tra gli strumenti più efficaci per migliorare le condizioni di vita degli individui, strumenti che possono anche garantire la distribuzione della ricchezza costruendo una società più equa, in quanto le merci ed i servizi dell’ecosistema fungono da beni per le comunità. La corretta gestione dell’ambiente e delle risorse quindi è di estrema importanza per la lotta alla povertà ed in questo caso il ruolo e la responsabilità dei tecnici ambientali è cruciale. Il lavoro di ricerca qui presentato, partendo dall’analisi del problema della gestione delle risorse naturali e dal suo stretto legame con la povertà, rivisitando il concetto tradizionale di “sviluppo” secondo i nuovi filoni di pensiero, vuole suggerire soluzioni e tecnologie per la gestione sostenibile delle risorse naturali che abbiano come obiettivo il benessere delle popolazioni più povere e degli ecosistemi, proponendo inoltre un metodo valutativo per la scelta delle alternative, soluzioni o tecnologie più adeguate al contesto di intervento. Dopo l’analisi dello “stato del Pianeta” (Capitolo 1) e delle risorse, sia a livello globale che a livello regionale, il secondo Capitolo prende in esame il concetto di povertà, di Paese in Via di Sviluppo (PVS), il concetto di “sviluppo sostenibile” e i nuovi filoni di pensiero: dalla teoria della Decrescita, al concetto di Sviluppo Umano. Dalla presa di coscienza dei reali fabbisogni umani, dall’analisi dello stato dell’ambiente, della povertà e delle sue diverse facce nei vari paesi, e dalla presa di coscienza del fallimento dell’economia della crescita (oggi visibile più che mai) si può comprendere che la soluzione per sconfiggere la povertà, il degrado dell’ambiente, e raggiungere lo sviluppo umano, non è il consumismo, la produzione, e nemmeno il trasferimento della tecnologia e l’industrializzazione; ma il “piccolo e bello” (F. Schumacher, 1982), ovvero gli stili di vita semplici, la tutela degli ecosistemi, e a livello tecnologico le “tecnologie appropriate”. Ed è proprio alle Tecnologie Appropriate a cui sono dedicati i Capitoli successivi (Capitolo 4 e Capitolo 5). Queste sono tecnologie semplici, a basso impatto ambientale, a basso costo, facilmente gestibili dalle comunità, tecnologie che permettono alle popolazioni più povere di avere accesso alle risorse naturali. Sono le tecnologie che meglio permettono, grazie alle loro caratteristiche, la tutela dei beni comuni naturali, quindi delle risorse e dell’ambiente, favorendo ed incentivando la partecipazione delle comunità locali e valorizzando i saperi tradizionali, grazie al coinvolgimento di tutti gli attori, al basso costo, alla sostenibilità ambientale, contribuendo all’affermazione dei diritti umani e alla salvaguardia dell’ambiente. Le Tecnologie Appropriate prese in esame sono quelle relative all’approvvigionamento idrico e alla depurazione dell’acqua tra cui: - la raccolta della nebbia, - metodi semplici per la perforazione di pozzi, - pompe a pedali e pompe manuali per l’approvvigionamento idrico, - la raccolta dell’acqua piovana, - il recupero delle sorgenti, - semplici metodi per la depurazione dell’acqua al punto d’uso (filtro in ceramica, filtro a sabbia, filtro in tessuto, disinfezione e distillazione solare). Il quinto Capitolo espone invece le Tecnolocie Appropriate per la gestione dei rifiuti nei PVS, in cui sono descritte: - soluzioni per la raccolta dei rifiuti nei PVS, - soluzioni per lo smaltimento dei rifiuti nei PVS, - semplici tecnologie per il riciclaggio dei rifiuti solidi. Il sesto Capitolo tratta tematiche riguardanti la Cooperazione Internazionale, la Cooperazione Decentrata e i progetti di Sviluppo Umano. Per progetti di sviluppo si intende, nell’ambito della Cooperazione, quei progetti che hanno come obiettivi la lotta alla povertà e il miglioramento delle condizioni di vita delle comunità beneficiarie dei PVS coinvolte nel progetto. All’interno dei progetti di cooperazione e di sviluppo umano gli interventi di tipo ambientale giocano un ruolo importante, visto che, come già detto, la povertà e il benessere delle popolazioni dipende dal benessere degli ecosistemi in cui vivono: favorire la tutela dell’ambiente, garantire l’accesso all’acqua potabile, la corretta gestione dei rifiuti e dei reflui nonché l’approvvigionamento energetico pulito sono aspetti necessari per permettere ad ogni individuo, soprattutto se vive in condizioni di “sviluppo”, di condurre una vita sana e produttiva. È importante quindi, negli interventi di sviluppo umano di carattere tecnico ed ambientale, scegliere soluzioni decentrate che prevedano l’adozione di Tecnologie Appropriate per contribuire a valorizzare l’ambiente e a tutelare la salute della comunità. I Capitoli 7 ed 8 prendono in esame i metodi per la valutazione degli interventi di sviluppo umano. Un altro aspetto fondamentale che rientra nel ruolo dei tecnici infatti è l’utilizzo di un corretto metodo valutativo per la scelta dei progetti possibili che tenga presente tutti gli aspetti, ovvero gli impatti sociali, ambientali, economici e che si cali bene alle realtà svantaggiate come quelle prese in considerazione in questo lavoro; un metodo cioè che consenta una valutazione specifica per i progetti di sviluppo umano e che possa permettere l’individuazione del progetto/intervento tecnologico e ambientale più appropriato ad ogni contesto specifico. Dall’analisi dei vari strumenti valutativi si è scelto di sviluppare un modello per la valutazione degli interventi di carattere ambientale nei progetti di Cooperazione Decentrata basato sull’Analisi Multi Criteria e sulla Analisi Gerarchica. L’oggetto di questa ricerca è stato quindi lo sviluppo di una metodologia, che tramite il supporto matematico e metodologico dell’Analisi Multi Criteria, permetta di valutare l’appropriatezza, la sostenibilità degli interventi di Sviluppo Umano di carattere ambientale, sviluppati all’interno di progetti di Cooperazione Internazionale e di Cooperazione Decentrata attraverso l’utilizzo di Tecnologie Appropriate. Nel Capitolo 9 viene proposta la metodologia, il modello di calcolo e i criteri su cui si basa la valutazione. I successivi capitoli (Capitolo 10 e Capitolo 11) sono invece dedicati alla sperimentazione della metodologia ai diversi casi studio: - “Progetto ambientale sulla gestione dei rifiuti presso i campi Profughi Saharawi”, Algeria, - “Programa 1 milhão de Cisternas, P1MC” e - “Programa Uma Terra e Duas Águas, P1+2”, Semi Arido brasiliano.
Resumo:
La tesi dottorale in oggetto prende spunto da alcune considerazioni di base relative alla salute di una comunità. Infatti quest’ultima si fonda sulla sicurezza dell’ambiente in cui vive e sulla qualità delle relazioni tra i suoi componenti. In questo ambito la mobilità rappresenta uno degli elementi di maggior criticità, sia per la sicurezza delle persone, che per la salute pubblica, che per le conseguenze sull’ambiente che ne derivano. Negli ultimi anni la circolazione stradale è notevolmente aumentata è questo ha portato a notevoli aspetti negativi, uno dei quali è connesso agli incidenti stradali. In tale ambito viene ricordato che l’Unione Europea ha da tempo indicato come obiettivo prioritario il miglioramento della sicurezza stradale e nel 2001 ha fissato il traguardo di dimezzare entro il 2010 il numero delle vittime degli incidenti stradali. Non ultima, l’approvazione da parte del Parlamento europeo e del Consiglio di un atto legislativo (d’imminente pubblicazione sulla GU Europea) relativo alla gestione della sicurezza in tutte le fasi della pianificazione, della progettazione e del funzionamento delle infrastrutture stradali, in cui si evidenzia l’esigenza di una quantificazione della sicurezza stradale. In tale contesto viene sottolineato come uno dei maggiori problemi nella gestione della sicurezza stradale sia la mancanza di un metodo affidabile per stimare e quantificare il livello di sicurezza di una strada esistente o in progetto. Partendo da questa considerazione la tesi si sviluppa mettendo in evidenza le grandezza fondamentali nel problema della sicurezza stradale, (grado di esposizione, rischio d’incidente e le possibili conseguenze sui passeggeri) e analizzando i sistemi adottati tradizionalmente per effettuare analisi di sicurezza: • Statistiche dei dati storici d’incidente; • Previsione da modelli basati su analisi di regressione dei dati incidentali; • Studi Before-After; • Valutazione da giudizi di esperti. Dopo aver analizzato gli aspetti positivi e negativi delle alternative in parola, viene proposto un nuovo approccio, che combina gli elementi di ognuno dei metodi sopra citati in un algoritmo di previsione incidentale. Tale nuovo algoritmo, denominato Interactive Highway Safety Design Model (IHSDM) è stato sviluppato dalla Federal Highway Administration in collaborazione con la Turner Fairbank Higway Research Center ed è specifico per le strade extraurbane a due corsie. Il passo successivo nello sviluppo della tesi è quello di un’analisi dettagliata del modello IHSDM che fornisce il numero totale di incidenti previsti in un certo intervallo temporale. Viene analizzata la struttura del modello, i limiti d’applicabilità, le equazioni che ne sono alla base e i coefficienti moltiplicativi relativi ad ogni caratteristica geometrica e funzionale. Inoltre viene presentata un’ampia analisi di sensibilità che permette di definire quale sia l’influenza d’ogni singolo Fattore di Previsione incidentale (Accident Predication Factor) sul risultato finale. Dai temi trattati, emerge chiaramente come la sicurezza è legata a più sistemi tra loro interconnessi e che per utilizzare e migliorare i modelli previsionali è necessario avere a disposizione dati completi, congruenti, aggiornati e facilmente consultabili. Infatti, anche quando sono disponibili elementi su tutti gli incidenti avvenuti, spesso mancano informazioni di dettaglio ma fondamentali, riguardanti la strada come ad esempio il grado di curvatura, la larghezza della carreggiata o l’aderenza della pavimentazione. In tale ottica, nella tesi viene presentato il Sistema Informativo Stradale (SIS) della Provincia di Bologna, concepito come strumento di gestione delle problematiche inerenti la viabilità e come strumento di supporto per la pianificazione degli interventi e la programmazione delle risorse da investire sulla rete. Viene illustrato come il sistema sia in grado di acquisire, elaborare ed associare dati georeferenziati relativi al territorio sia sotto forma di rappresentazioni grafiche, sia mediante informazioni descrittive di tipo anagrafico ed alfanumerico. Quindi viene descritto il rilievo ad alto rendimento, effettuato con l’ausilio di un laboratorio mobile multifunzionale (Mobile Mapping System), grazie al quale è stato possibile definire con precisione il grafo completo delle strade provinciali e il database contenente i dati relativi al patrimonio infrastrutturale. Tali dati, relativi alle caratteristiche plano-altimetriche dell’asse (rettifili, curve planimetriche, livellette, raccordi altimetrici, ecc...), alla sezione trasversale (numero e larghezza corsie, presenza di banchine, ecc..), all’ambiente circostante e alle strutture annesse vengono presentati in forma completa specificando per ognuno la variabilità specifica. Inoltre viene evidenziato come il database si completi con i dati d’incidentali georeferenziati sul grafo e compresivi di tutte le informazioni contenute nel modello ISTAT CTT/INC spiegandone le possibili conseguenze sul campo dell’analisi di sicurezza. La tesi si conclude con l’applicazione del modello IHSDM ad un caso reale, nello specifico la SP255 di S.Matteo Decima. Infatti tale infrastruttura sarà oggetto di un miglioramento strutturale, finanziato dalla Regione Emilia Romagna, che consistente nell’allargamento della sede stradale attraverso la realizzazione di una banchina pavimentata di 1.00m su entrambi i lati della strada dalla prog. km 19+000 al km 21+200. Attraverso l’utilizzo dell’algoritmo di previsione incidentale è stato possibile quantificare gli effetti di questo miglioramento sul livello di sicurezza dell’infrastruttura e verificare l’attendibilità del modello con e senza storia incidentale pregressa. Questa applicazione ad un caso reale mette in evidenza come le informazioni del SIS possano essere sfruttate a pieno per la realizzazione di un analisi di sicurezza attraverso l’algoritmo di previsione incidentale IHSDM sia nella fase di analisi di uno specifico tronco stradale che in quella fondamentale di calibrazione del modello ad una specifica rete stradale (quella della Provincia di Bologna). Inoltre viene sottolineato come la fruibilità e la completezza dei dati a disposizione, possano costituire la base per sviluppi di ricerca futuri, come ad esempio l’indagine sulle correlazioni esistenti tra le variabili indipendenti che agiscono sulla sicurezza stradale.
Resumo:
The construction and use of multimedia corpora has been advocated for a while in the literature as one of the expected future application fields of Corpus Linguistics. This research project represents a pioneering experience aimed at applying a data-driven methodology to the study of the field of AVT, similarly to what has been done in the last few decades in the macro-field of Translation Studies. This research was based on the experience of Forlixt 1, the Forlì Corpus of Screen Translation, developed at the University of Bologna’s Department of Interdisciplinary Studies in Translation, Languages and Culture. As a matter of fact, in order to quantify strategies of linguistic transfer of an AV product, we need to take into consideration not only the linguistic aspect of such a product but all the meaning-making resources deployed in the filmic text. Provided that one major benefit of Forlixt 1 is the combination of audiovisual and textual data, this corpus allows the user to access primary data for scientific investigation, and thus no longer rely on pre-processed material such as traditional annotated transcriptions. Based on this rationale, the first chapter of the thesis sets out to illustrate the state of the art of research in the disciplinary fields involved. The primary objective was to underline the main repercussions on multimedia texts resulting from the interaction of a double support, audio and video, and, accordingly, on procedures, means, and methods adopted in their translation. By drawing on previous research in semiotics and film studies, the relevant codes at work in visual and acoustic channels were outlined. Subsequently, we concentrated on the analysis of the verbal component and on the peculiar characteristics of filmic orality as opposed to spontaneous dialogic production. In the second part, an overview of the main AVT modalities was presented (dubbing, voice-over, interlinguistic and intra-linguistic subtitling, audio-description, etc.) in order to define the different technologies, processes and professional qualifications that this umbrella term presently includes. The second chapter focuses diachronically on various theories’ contribution to the application of Corpus Linguistics’ methods and tools to the field of Translation Studies (i.e. Descriptive Translation Studies, Polysystem Theory). In particular, we discussed how the use of corpora can favourably help reduce the gap existing between qualitative and quantitative approaches. Subsequently, we reviewed the tools traditionally employed by Corpus Linguistics in regard to the construction of traditional “written language” corpora, to assess whether and how they can be adapted to meet the needs of multimedia corpora. In particular, we reviewed existing speech and spoken corpora, as well as multimedia corpora specifically designed to investigate Translation. The third chapter reviews Forlixt 1's main developing steps, from a technical (IT design principles, data query functions) and methodological point of view, by laying down extensive scientific foundations for the annotation methods adopted, which presently encompass categories of pragmatic, sociolinguistic, linguacultural and semiotic nature. Finally, we described the main query tools (free search, guided search, advanced search and combined search) and the main intended uses of the database in a pedagogical perspective. The fourth chapter lists specific compilation criteria retained, as well as statistics of the two sub-corpora, by presenting data broken down by language pair (French-Italian and German-Italian) and genre (cinema’s comedies, television’s soapoperas and crime series). Next, we concentrated on the discussion of the results obtained from the analysis of summary tables reporting the frequency of categories applied to the French-Italian sub-corpus. The detailed observation of the distribution of categories identified in the original and dubbed corpus allowed us to empirically confirm some of the theories put forward in the literature and notably concerning the nature of the filmic text, the dubbing process and Italian dubbed language’s features. This was possible by looking into some of the most problematic aspects, like the rendering of socio-linguistic variation. The corpus equally allowed us to consider so far neglected aspects, such as pragmatic, prosodic, kinetic, facial, and semiotic elements, and their combination. At the end of this first exploration, some specific observations concerning possible macrotranslation trends were made for each type of sub-genre considered (cinematic and TV genre). On the grounds of this first quantitative investigation, the fifth chapter intended to further examine data, by applying ad hoc models of analysis. Given the virtually infinite number of combinations of categories adopted, and of the latter with searchable textual units, three possible qualitative and quantitative methods were designed, each of which was to concentrate on a particular translation dimension of the filmic text. The first one was the cultural dimension, which specifically focused on the rendering of selected cultural references and on the investigation of recurrent translation choices and strategies justified on the basis of the occurrence of specific clusters of categories. The second analysis was conducted on the linguistic dimension by exploring the occurrence of phrasal verbs in the Italian dubbed corpus and by ascertaining the influence on the adoption of related translation strategies of possible semiotic traits, such as gestures and facial expressions. Finally, the main aim of the third study was to verify whether, under which circumstances, and through which modality, graphic and iconic elements were translated into Italian from an original corpus of both German and French films. After having reviewed the main translation techniques at work, an exhaustive account of possible causes for their non-translation was equally provided. By way of conclusion, the discussion of results obtained from the distribution of annotation categories on the French-Italian corpus, as well as the application of specific models of analysis allowed us to underline possible advantages and drawbacks related to the adoption of a corpus-based approach to AVT studies. Even though possible updating and improvement were proposed in order to help solve some of the problems identified, it is argued that the added value of Forlixt 1 lies ultimately in having created a valuable instrument, allowing to carry out empirically-sound contrastive studies that may be usefully replicated on different language pairs and several types of multimedia texts. Furthermore, multimedia corpora can also play a crucial role in L2 and translation teaching, two disciplines in which their use still lacks systematic investigation.
Resumo:
The present dissertation relates to methodologies and technics about industrial and mechanical design. The author intends to give a complete idea about the world of design, showing the theories of Quality Function Deployment and TRIZ, of other methods just like planning, budgeting, Value Analysis and Engineering, Concurrent Engineering, Design for Assembly and Manufactoring, etc., and their applications to five concrete cases. In these cases there are also illustrated design technics as CAD, CAS, CAM; Rendering, which are ways to transform an idea into reality. The most important object of the work is, however, the birth of a new methodology, coming up from a comparison between QFD and TRIZ and their integration through other methodologies, just like Time and Cost Analysis, learned and skilled during an important experience in a very famous Italian automotive factory.
Resumo:
The wheel - rail contact analysis plays a fundamental role in the multibody modeling of railway vehicles. A good contact model must provide an accurate description of the global contact phenomena (contact forces and torques, number and position of the contact points) and of the local contact phenomena (position and shape of the contact patch, stresses and displacements). The model has also to assure high numerical efficiency (in order to be implemented directly online within multibody models) and a good compatibility with commercial multibody software (Simpack Rail, Adams Rail). The wheel - rail contact problem has been discussed by several authors and many models can be found in the literature. The contact models can be subdivided into two different categories: the global models and the local (or differential) models. Currently, as regards the global models, the main approaches to the problem are the so - called rigid contact formulation and the semi – elastic contact description. The rigid approach considers the wheel and the rail as rigid bodies. The contact is imposed by means of constraint equations and the contact points are detected during the dynamic simulation by solving the nonlinear algebraic differential equations associated to the constrained multibody system. Indentation between the bodies is not permitted and the normal contact forces are calculated through the Lagrange multipliers. Finally the Hertz’s and the Kalker’s theories allow to evaluate the shape of the contact patch and the tangential forces respectively. Also the semi - elastic approach considers the wheel and the rail as rigid bodies. However in this case no kinematic constraints are imposed and the indentation between the bodies is permitted. The contact points are detected by means of approximated procedures (based on look - up tables and simplifying hypotheses on the problem geometry). The normal contact forces are calculated as a function of the indentation while, as in the rigid approach, the Hertz’s and the Kalker’s theories allow to evaluate the shape of the contact patch and the tangential forces. Both the described multibody approaches are computationally very efficient but their generality and accuracy turn out to be often insufficient because the physical hypotheses behind these theories are too restrictive and, in many circumstances, unverified. In order to obtain a complete description of the contact phenomena, local (or differential) contact models are needed. In other words wheel and rail have to be considered elastic bodies governed by the Navier’s equations and the contact has to be described by suitable analytical contact conditions. The contact between elastic bodies has been widely studied in literature both in the general case and in the rolling case. Many procedures based on variational inequalities, FEM techniques and convex optimization have been developed. This kind of approach assures high generality and accuracy but still needs very large computational costs and memory consumption. Due to the high computational load and memory consumption, referring to the current state of the art, the integration between multibody and differential modeling is almost absent in literature especially in the railway field. However this integration is very important because only the differential modeling allows an accurate analysis of the contact problem (in terms of contact forces and torques, position and shape of the contact patch, stresses and displacements) while the multibody modeling is the standard in the study of the railway dynamics. In this thesis some innovative wheel – rail contact models developed during the Ph. D. activity will be described. Concerning the global models, two new models belonging to the semi – elastic approach will be presented; the models satisfy the following specifics: 1) the models have to be 3D and to consider all the six relative degrees of freedom between wheel and rail 2) the models have to consider generic railway tracks and generic wheel and rail profiles 3) the models have to assure a general and accurate handling of the multiple contact without simplifying hypotheses on the problem geometry; in particular the models have to evaluate the number and the position of the contact points and, for each point, the contact forces and torques 4) the models have to be implementable directly online within the multibody models without look - up tables 5) the models have to assure computation times comparable with those of commercial multibody software (Simpack Rail, Adams Rail) and compatible with RT and HIL applications 6) the models have to be compatible with commercial multibody software (Simpack Rail, Adams Rail). The most innovative aspect of the new global contact models regards the detection of the contact points. In particular both the models aim to reduce the algebraic problem dimension by means of suitable analytical techniques. This kind of reduction allows to obtain an high numerical efficiency that makes possible the online implementation of the new procedure and the achievement of performance comparable with those of commercial multibody software. At the same time the analytical approach assures high accuracy and generality. Concerning the local (or differential) contact models, one new model satisfying the following specifics will be presented: 1) the model has to be 3D and to consider all the six relative degrees of freedom between wheel and rail 2) the model has to consider generic railway tracks and generic wheel and rail profiles 3) the model has to assure a general and accurate handling of the multiple contact without simplifying hypotheses on the problem geometry; in particular the model has to able to calculate both the global contact variables (contact forces and torques) and the local contact variables (position and shape of the contact patch, stresses and displacements) 4) the model has to be implementable directly online within the multibody models 5) the model has to assure high numerical efficiency and a reduced memory consumption in order to achieve a good integration between multibody and differential modeling (the base for the local contact models) 6) the model has to be compatible with commercial multibody software (Simpack Rail, Adams Rail). In this case the most innovative aspects of the new local contact model regard the contact modeling (by means of suitable analytical conditions) and the implementation of the numerical algorithms needed to solve the discrete problem arising from the discretization of the original continuum problem. Moreover, during the development of the local model, the achievement of a good compromise between accuracy and efficiency turned out to be very important to obtain a good integration between multibody and differential modeling. At this point the contact models has been inserted within a 3D multibody model of a railway vehicle to obtain a complete model of the wagon. The railway vehicle chosen as benchmark is the Manchester Wagon the physical and geometrical characteristics of which are easily available in the literature. The model of the whole railway vehicle (multibody model and contact model) has been implemented in the Matlab/Simulink environment. The multibody model has been implemented in SimMechanics, a Matlab toolbox specifically designed for multibody dynamics, while, as regards the contact models, the CS – functions have been used; this particular Matlab architecture allows to efficiently connect the Matlab/Simulink and the C/C++ environment. The 3D multibody model of the same vehicle (this time equipped with a standard contact model based on the semi - elastic approach) has been then implemented also in Simpack Rail, a commercial multibody software for railway vehicles widely tested and validated. Finally numerical simulations of the vehicle dynamics have been carried out on many different railway tracks with the aim of evaluating the performances of the whole model. The comparison between the results obtained by the Matlab/ Simulink model and those obtained by the Simpack Rail model has allowed an accurate and reliable validation of the new contact models. In conclusion to this brief introduction to my Ph. D. thesis, we would like to thank Trenitalia and the Regione Toscana for the support provided during all the Ph. D. activity. Moreover we would also like to thank the INTEC GmbH, the society the develops the software Simpack Rail, with which we are currently working together to develop innovative toolboxes specifically designed for the wheel rail contact analysis.
Resumo:
Nella tesi sono rielaborati i dati etnografici, prodotti in Italia ed in Ghana, con una ricerca sul campo di oltre un anno. Attraverso la ricostruzione di un progetto di co-sviluppo che mobilita i migranti in quanto attori di sviluppo, ed in questo caso l’associazione ghanese di Modena per avviare alcune iniziative di sviluppo economico, umano e sostenibile nel paese d’origine, si sono indagate le forme concrete di transnazionalismo attivate da questo gruppo sociale. Nell’analisi, prettamente antropologica, si rivela come, nel progetto di co-sviluppo osservato, le identità etniche, le relazioni asimmetriche di genere ed i processi di negoziazione politica sono celati ed agiti dai diversi attori sociali coinvolti. Si sono inoltre osservate le forme di partecipazione politica in Italia ed in Ghana rivelando come il collettivo ghanese abbia avviato un processo di depoliticizzazione dello sviluppo nel contesto d’origine e, nonostante ciò, sia divenuto nel paese d’immigrazione un nuovo attore politico. Particolare attenzione è stata posta alle produzioni discorsive dello sviluppo e della diaspora, evidenziando come i collettivi migranti se ne riapproprino e le riformulino nelle pratiche quotidiane.
Resumo:
L’attività assicurativa svolge un ruolo cruciale nell’economia moderna: riduce le inefficienze di mercato, rendendo possibile per la c.d. economia reale il trasferimento di rischi il cui impatto potrebbe essere devastante qualora l’evento assicurato si verificasse. Questa funzione può naturalmente essere svolta anche in assenza di un canale distributivo indipendente, ma con un significativo aumento dei costi di transazione dovuti, in particolare, a un alto impatto dell’asimmetria informativa per i c.d. rischi non standardizzabili (c.d. commercial lines o business insurance). Tale funzione è tanto più importante nei c.d. cicli di hard market, in cui l’appetito per il rischio delle imprese assicuratrici diminuisce, il prezzo delle coperture aumenta e per le imprese diventa arduo trovare eque coperture sul mercato d’offerta. Lo studio evidenzia che gli intermediari indipendenti italiani non differiscono molto da quelli di altri Paesi per composizione di portafoglio, propensione all’intermediazione di rischi afferenti al segmento Aziende e capacità di selezionare con attenzione i rischi. Nel loro complesso, intermediari indipendenti e in esclusiva sembrano ancorati a modelli e logiche di sviluppo poco orientate al futuro, quali ad esempio poco significative politiche di costruzione di reti secondarie al loro interno. Questo orientamento impedisce a molti di loro di crescere. Le cause ostative alla diffusione del plurimandato sono i costi di transazione e i timori di ritorsione della mandante principale. Dato che l’acquisizione di ulteriori mandati dipende dal numero di clienti in portafoglio in termini di policy sarebbe opportuno, da un lato, riconoscere agli intermediari l’importanza degli investimenti in reti secondarie e, dall’altro, rimuovere tutte gli ostacoli (prevalentemente di natura regolamentare) che impediscono un’ulteriore riduzione dei costi di transazione.
Resumo:
Il progetto prevede l’applicazione dell’analisi del ciclo di vita al sistema integrato di raccolta, riciclaggio e smaltimento dei rifiuti urbani e assimilati. La struttura di una LCA (Life Cycle Assessment) è determinata dalla serie di norme UNI EN ISO 14040 e si può considerare come “un procedimento oggettivo di valutazione dei carichi energetici e ambientali relativi a un processo o un’attività, effettuato attraverso l’identificazione dell’energia e dei materiali usati e dei rifiuti rilasciati nell’ambiente. La valutazione include l’intero ciclo di vita del processo o attività, comprendendo l’estrazione e il trattamento delle materie prime, la fabbricazione, il trasporto, la distribuzione, l’uso, il riuso, il riciclo e lo smaltimento finale”. Questa definizione si riassume nella frase “ from cradle to grave” (dalla culla alla tomba). Lo scopo dello studio è l’applicazione di una LCA alla gestione complessiva dei rifiuti valutata in tre territori diversi individuati presso tre gestori italiani. Due di questi si contraddistinguono per modelli di raccolta con elevati livelli di raccolta differenziata e con preminenza del sistema di raccolta domiciliarizzato, mentre sul territorio del terzo gestore prevale il sistema di raccolta con contenitori stradali e con livelli di raccolta differenziata buoni, ma significativamente inferiori rispetto ai Gestori prima descritti. Nella fase iniziale sono stati individuati sul territorio dei tre Gestori uno o più Comuni con caratteristiche abbastanza simili come urbanizzazione, contesto sociale, numero di utenze domestiche e non domestiche. Nella scelta dei Comuni sono state privilegiate le realtà che hanno maturato il passaggio dal modello di raccolta a contenitori stradali a quello a raccolta porta a porta. Attuata l’identificazione delle aree da sottoporre a studio, è stato realizzato, per ognuna di queste aree, uno studio LCA dell’intero sistema di gestione dei rifiuti, dalla raccolta allo smaltimento e riciclaggio dei rifiuti urbani e assimilati. Lo studio ha posto anche minuziosa attenzione al passaggio dal sistema di raccolta a contenitori al sistema di raccolta porta a porta, evidenziando il confronto fra le due realtà, nelle fasi pre e post passaggio, in particolare sono stati realizzati tre LCA di confronto attraverso i quali è stato possibile individuare il sistema di gestione con minori impatti ambientali.