96 resultados para mappe digitali, accessibilità, dispositivi mobili, utenti, disabilità
Resumo:
La tesi ha per oggetto lo studio delle politiche pubbliche locali ed in particolare delle politiche sociali che dal 2011 sono diventate politiche esclusivamente territoriali. L’obiettivo è quello di verificare se il differente orientamento politico delle amministrazioni genera politiche differenti. Per verificare le ipotesi si sono scelti 2 Comuni simili sul piano delle variabili socio-economiche, ma guidati da giunte con orientamento politico differente: il Comune di Modena a guida Partito Democratico e il Comune di Verona con un sindaco leghista a capo di una giunta di centro-destra. Nella prima parte vengono esposti ed analizzati i principali paradigmi di studio delle politiche (rational choice, paradigma marxista, economia del benessere, corporativismo e pluralismo, neo-istituzionalismo e paradigma relazionale) e viene presentato il paradigma che verrà utilizzato per l’analisi delle politiche (paradigma relazionale). Per la parte empirica si è proceduto attraverso interviste in profondità effettuate ai due Assessori alle Politiche sociali e ai due Dirigenti comunali dei Comuni e a 18 organizzazioni di Terzo settore impegnate nella costruzione delle politiche e selezionate attraverso la metodologia “a palla di neve”. Sono analizzate le disposizioni normative in materia di politica sociale, sia per la legislazione regionale che per quella comunale. L’analisi dei dati ha verificato l’ipotesi di ricerca nel senso che l’orientamento politico produce politiche differenti per quanto riguarda il rapporto tra Pubblica Amministrazione e Terzo settore. Per Modena si può parlare di una scelta di esternalizzazione dei servizi che si accompagna ad un processo di internalizzazione dei servizi tramite le ASP; a Verona almeno per alcuni settori delle politiche (disabilità e anziani) sono stati realizzati processi di sussidiarietà e di governance. Per la fase di programmazione l’orientamento politico ha meno influenza e la programmazione mostra caratteristiche di tipo “top-down”.
Resumo:
Il tema della ricerca ha riguardato preliminarmente la definizione di farmaco descritta nel d.lgs. n. 219 del 2006 (Codice dei farmaci per uso umano). Oltre al danno prodotto da farmaci, la ricerca ha approfondito anche la tutela ex ante ed ex post riguardante la produzione di dispositivi medici (Direttiva della Comunità Economica Europea n. 42 del 1993 e Direttiva della Comunità Economica Europea n. 374 del 1985). E’ stato necessario soffermarsi sull’analisi del concetto di precauzione per il quale nell’ambito di attività produttive, come quelle che cagionano inquinamento ambientale, o “pericolose per la salute umana” come quelle riguardanti la produzione di alimenti e farmaci, è necessario eliminare i rischi non conosciuti nella produzione di questi ultimi al fine di garantire una tutela completa della salute. L’analisi della Direttiva della Comunità Economica Europea n. 374 del 1985 nei suoi aspetti innovativi ha riguardato l’esame dei casi di danno da farmaco (Trib. Roma, 20 Giugno 2002, Trib. Roma 27 Giugno 1987, Trib. Milano 19 Novembre 1987, Cassazione Civile n. 6241 del 1987): profilo critico è quello riguardante la prova liberatoria, mentre l'art. 2050 prevede che «si debbano adottare tutte le misure necessarie per evitare il danno», l'art. 118, lett. e), c. cons.) prevede una serie di casi di esonero di responsabilità del produttore (tra cui il rischio di sviluppo). Dall'analisi emerge poi la necessità da parte del produttore di continuo utilizzo del duty to warn (Art. 117 del Codice del Consumo lett. A e B ): esso consiste nel dovere continuo di informazione del produttore tramite i suoi rappresentanti e il bugiardino presente nelle confezioni dei farmaci. Tale dovere è ancor più importante nel caso della farmacogenetica, infatti, al fine di evitare reazioni avverse nel bugiardino di alcuni farmaci verrà prescritta la necessità di effettuare un test genetico prima dell’assunzione.
Resumo:
Photovoltaic (PV) conversion is the direct production of electrical energy from sun without involving the emission of polluting substances. In order to be competitive with other energy sources, cost of the PV technology must be reduced ensuring adequate conversion efficiencies. These goals have motivated the interest of researchers in investigating advanced designs of crystalline silicon solar (c-Si) cells. Since lowering the cost of PV devices involves the reduction of the volume of semiconductor, an effective light trapping strategy aimed at increasing the photon absorption is required. Modeling of solar cells by electro-optical numerical simulation is helpful to predict the performance of future generations devices exhibiting advanced light-trapping schemes and to provide new and more specific guidelines to industry. The approaches to optical simulation commonly adopted for c-Si solar cells may lead to inaccurate results in case of thin film and nano-stuctured solar cells. On the other hand, rigorous solvers of Maxwell equations are really cpu- and memory-intensive. Recently, in optical simulation of solar cells, the RCWA method has gained relevance, providing a good trade-off between accuracy and computational resources requirement. This thesis is a contribution to the numerical simulation of advanced silicon solar cells by means of a state-of-the-art numerical 2-D/3-D device simulator, that has been successfully applied to the simulation of selective emitter and the rear point contact solar cells, for which the multi-dimensionality of the transport model is required in order to properly account for all physical competing mechanisms. In the second part of the thesis, the optical problems is discussed. Two novel and computationally efficient RCWA implementations for 2-D simulation domains as well as a third RCWA for 3-D structures based on an eigenvalues calculation approach have been presented. The proposed simulators have been validated in terms of accuracy, numerical convergence, computation time and correctness of results.
Resumo:
In genere, negli studi di vocazionalità delle colture, vengono presi in considerazione solo variabili ambientali pedo-climatiche. La coltivazione di una coltura comporta anche un impatto ambientale derivante dalle pratiche agronomiche ed il territorio può essere più o meno sensibile a questi impatti in base alla sua vulnerabilità. In questo studio si vuole sviluppare una metodologia per relazionare spazialmente l’impatto delle colture con le caratteristiche sito specifiche del territorio in modo da considerare anche questo aspetto nell’allocazione negli studi di vocazionalità. LCA è stato utilizzato per quantificare diversi impatti di alcune colture erbacee alimentari e da energia, relazionati a mappe di vulnerabilità costruite con l’utilizzo di GIS, attraverso il calcolo di coefficienti di rischio di allocazione per ogni combinazione coltura-area vulnerabile. Le colture energetiche sono state considerate come un uso alternativo del suolo per diminuire l’impatto ambientale. Il caso studio ha mostrato che l’allocazione delle colture può essere diversa in base al tipo e al numero di impatti considerati. Il risultato sono delle mappe in cui sono riportate le distribuzioni ottimali delle colture al fine di minimizzare gli impatti, rispetto a mais e grano, due colture alimentari importanti nell’area di studio. Le colture con l’impatto più alto dovrebbero essere coltivate nelle aree a vulnerabilità bassa, e viceversa. Se il rischio ambientale è la priorità, mais, colza, grano, girasole, e sorgo da fibra dovrebbero essere coltivate solo nelle aree a vulnerabilità bassa o moderata, mentre, le colture energetiche erbacee perenni, come il panico, potrebbero essere coltivate anche nelle aree a vulnerabilità alta, rappresentando cosi una opportunità per aumentare la sostenibilità di uso del suolo rurale. Lo strumento LCA-GIS inoltre, integrato con mappe di uso attuale del suolo, può aiutare a valutarne il suo grado di sostenibilità ambientale.
Resumo:
La Comunità Europea, alla luce dei recenti eventi alluvionali occorsi nei Paesi Membri ed al progressivo aumento dei danni economici da essi provocati, ha recentemente emanato una direttiva (Direttiva Europea 2007/60/CE, Flood Directive) per la valutazione e la predisposizione di piani di gestione del rischio idraulico alluvionale. Con riferimento a tale contesto l’attività di ricerca condotta si è concentrata sulla valutazione delle potenzialità offerte dalla modellistica numerico-idraulica mono e bidimensionale quale strumento per l’attuazione della Direttiva 2007/60. Le attività sono state affrontate ponendo particolare attenzione alla valutazione dei termini di incertezza che caratterizzano l’applicazione dei modelli numerico-idraulici, esaminando i possibili effetti di tale incertezza sulla mappatura della pericolosità idraulica. In particolare, lo studio si concentra su diversi tratti fluviali del corso medio inferiore del Fiume Po e si articola in tre parti: 1) analisi dell’incertezza connessa alla definizione delle scale di deflusso in una generica sezione fluviale e valutazione dei suoi effetti sulla calibrazione dei modelli numerici quasi-bidimensionali (quasi-2D); 2) definizione di mappe probabilistiche di allagamento per tratti fluviali arginati in presenza di tre sorgenti di incertezza: incertezza nelle condizioni al contorno di monte, nelle condizioni di valle e nell’identificazione delle eventuali brecce arginali; 3) valutazione dell’applicabilità di un modello quasi-2D per la definizione, a grande scala spaziale, di strategie alternative al tradizionale rialzo dei manufatti arginali per la mitigazione del rischio alluvionale associato a eventi di piena catastrofici. Le analisi condotte, oltre ad aver definito e valutato le potenzialità di metodologie e modelli idraulici a diversa complessità, hanno evidenziato l’entità e l’impatto dei più importanti elementi d’incertezza, sottolineando come la corretta mappatura della pericolosità idraulica debba sempre essere accompagnata da una valutazione della sua incertezza.
Resumo:
La tesi ha ad oggetto lo studio e l’approfondimento delle forme di promozione commerciale presenti in Rete caratterizzate, più che da una normale evoluzione, da continue metamorfosi che ridefiniscono ogni giorno il concetto di pubblicità. L’intento è quello di analizzare il quadro giuridico applicabile alla pubblicità via Web, a fronte della varità di forme e di modalità che essa può assumere. Nel lavoro vengono passate in rassegna le caratteristiche che differenziano la pubblicità commerciale on-line rispetto a quella tradizionale; tra le quali, particolare rilievo assume la capacità d’istaurare una relazione – diretta e non mediata – tra impresa e consumatore. Nel prosieguo viene affrontato il problema dell’individuazione, stante il carattere a-territoriale della Rete, della legge applicabile al web advertising, per poi passare ad una ricognizione delle norme europee ed italiane in materia, senza trascurare quelle emanate in sede di autodisciplina. Ampio spazio è dedicato, infine, all’esame delle diverse e più recenti tecniche di promozione pubblicitaria, di cui sono messi in evidenza gli aspetti tecnico-informatici, imprescindibili ai fini di una corretta valutazione del tema giuridico. In particolare, vengono approfonditi il servizio di posizionamento a pagamento offerto dai principali motori di ricerca (keywords advertising) e gli strumenti di tracciamento dei “comportamenti” on-line degli utenti, che consentono la realizzazione di campagne pubblicitarie mirate (on-line behavioural advertising). Il Web, infatti, non offre più soltanto la possibilità di superare barriere spaziali, linguistiche o temporali e di ampliare la propria sfera di notorietà, ma anche di raggiungere l’utente “interessato” e, pertanto, potenziale acquirente. Di queste nuove realtà pubblicitarie vengono vagliati gli aspetti più critici ed esaminata la disciplina giuridica eventualmente applicabile anche alla luce delle principali decisioni giurisprudenziali nazionali ed europee in materia, nonché delle esperienze giuridiche nord-americane e di tipo autoregolamentare.
Resumo:
Analysts, politicians and international players from all over the world look at China as one of the most powerful countries on the international scenario, and as a country whose economic development can significantly impact on the economies of the rest of the world. However many aspects of this country have still to be investigated. First the still fundamental role played by Chinese rural areas for the general development of the country from a political, economic and social point of view. In particular, the way in which the rural areas have influenced the social stability of the whole country has been widely discussed due to their strict relationship with the urban areas where most people from the countryside emigrate searching for a job and a better life. In recent years many studies have mostly focused on the urbanization phenomenon with little interest in the living conditions in rural areas and in the deep changes which have occurred in some, mainly agricultural provinces. An analysis of the level of infrastructure is one of the main aspects which highlights the principal differences in terms of living conditions between rural and urban areas. In this thesis, I first carried out the analysis through the multivariate statistics approach (Principal Component Analysis and Cluster Analysis) in order to define the new map of rural areas based on the analysis of living conditions. In the second part I elaborated an index (Living Conditions Index) through the Fuzzy Expert/Inference System. Finally I compared this index (LCI) to the results obtained from the cluster analysis drawing geographic maps. The data source is the second national agricultural census of China carried out in 2006. In particular, I analysed the data refer to villages but aggregated at province level.
Resumo:
L’elaborato ha ad oggetto l’analisi delle possibili forme di collaborazione tra vettori nei diversi settori del trasporto, con particolare attenzione all’ambito aeronautico e marittimo. Negli ultimi decenni l’incremento del livello di concorrenza tra i competitors su scala planetaria, a seguito della progressiva liberalizzazione e globalizzazione dei trasporti, ha indotto i vettori ad adottare nuove strategie commerciali dirette alla condivisione del rischio, alla riduzione dei costi di esercizio, all’espansione delle proprie reti e alla flessibilizzazione dei processi interni di adeguamento alle continue espansioni e contrazioni del mercato. Hanno, così, fatto la loro comparsa modelli contrattuali nuovi che differiscono per struttura, livello di integrazione delle parti coinvolte e grado di complessità dell’accordo. Nell’elaborato, pertanto, sono state attentamente esaminate le molteplici figure giuridiche generate dalla prassi commerciale, come gli accordi di codesharing, interlining, wet lease, dry lease, franchising, le grandi alleanze strategiche presenti sia in ambito aeronautico, sia in quello marittimo, le Conferences e i Consorzi. La ricerca, in particolare, è focalizzata, alla luce della prassi contrattuale e della normativa nazionale, comunitaria ed internazionale vigente, sui problemi di qualificazione giuridica di tali accordi e, conseguentemente, sulla disciplina di volta in volta ad essi applicabile, sul loro oggetto, regolamento contrattuale e contenuto. Si è proceduto poi ad uno studio comparativo-contrastivo delle differenze tra le varie forme di partnership e all’approfondimento delle questioni concernenti la tutela degli utenti dei servizi di trasporto, siano essi passeggeri o mittenti. Sono affrontati, infatti, con accurata indagine i profili di responsabilità dei vettori coinvolti, sulla base del quadro normativo di riferimento. Nel corso della ricerca si è data anche particolare attenzione all’analisi della compatibilità degli accordi tra vettori con la disciplina comunitaria della concorrenza, registrando una tendenza della Comunità a piegare l’interpretazione delle norme in materia alle superiori esigenze dell’economia, in considerazione delle peculiarità del mercato del trasporto.
Resumo:
The aim of this thesis is to apply multilevel regression model in context of household surveys. Hierarchical structure in this type of data is characterized by many small groups. In last years comparative and multilevel analysis in the field of perceived health have grown in size. The purpose of this thesis is to develop a multilevel analysis with three level of hierarchy for Physical Component Summary outcome to: evaluate magnitude of within and between variance at each level (individual, household and municipality); explore which covariates affect on perceived physical health at each level; compare model-based and design-based approach in order to establish informativeness of sampling design; estimate a quantile regression for hierarchical data. The target population are the Italian residents aged 18 years and older. Our study shows a high degree of homogeneity within level 1 units belonging from the same group, with an intraclass correlation of 27% in a level-2 null model. Almost all variance is explained by level 1 covariates. In fact, in our model the explanatory variables having more impact on the outcome are disability, unable to work, age and chronic diseases (18 pathologies). An additional analysis are performed by using novel procedure of analysis :"Linear Quantile Mixed Model", named "Multilevel Linear Quantile Regression", estimate. This give us the possibility to describe more generally the conditional distribution of the response through the estimation of its quantiles, while accounting for the dependence among the observations. This has represented a great advantage of our models with respect to classic multilevel regression. The median regression with random effects reveals to be more efficient than the mean regression in representation of the outcome central tendency. A more detailed analysis of the conditional distribution of the response on other quantiles highlighted a differential effect of some covariate along the distribution.
Resumo:
Nell’ambito del progetto multidisciplinare “Coastal Salt Water Intrusion”, che si propone di indagare “l’Intrusione salina nella costa ravennate con i conseguenti impatti territoriali-ambientali, connessi al previsto innalzamento del livello marino per cause climatiche e di subsidenza”, si inserisce il presente studio con l’obiettivo di fornire una caratterizzazione idrogeochimica delle acque di falda e superficiali e un modello geochimico generale sui processi di salinizzazione o desalinizzazione in atto nella falda freatica costiera della costa ravennate. E’ stato fatto un confronto fra tre metodiche di estrazione del complesso di scambio della matrice solida dell’acquifero che utilizzano rispettivamente acetato di ammonio, cloruro di bario e argento-tiourea. Sono stati posizionati 5 transetti perpendicolari alla linea di costa per un totale di 44 punti di campionamento con due campagne di prelievi, al termine della primavera e al termine dell’estate. La caratterizzazione dei processi di mixing e scambio ionico con la matrice solida dell’acquifero è avvenuta mediante analisi dei cationi ed anioni fondamentali, determinazione della CEC sulla matrice solida dell’acquifero, modellizzazione mixing/scambio ionico, modellizzazione della composizione teorica della frazione scambiabile in funzione della composizione acqua all’equilibrio e interpolazione geostatistica dei dati raccolti e costruzione di mappe geochimiche (curve di iso-concentrazione). La metodologia di estrazione che utilizza il bario-cloruro è risultata la più affidabile. Le acque prelevate dalla falda superficiale evidenziano miscelazione in varie proporzioni acqua marina/acqua dolce, scambi ionici per interazione acqua/sedimento, dissoluzione di CaSO4.2H2O. I processi di salinizzazione e/o addolcimento mostrano una significativa variabilità nello spazio (variabilità legata alla distanza dalla costa, al profilo topografico e alla distribuzione dei corpi sabbiosi litoranei) e nel tempo (variabilità legata alla piovosità e alla gestione delle acque superficiali e del sottosuolo). La complessa variabilità spazio-temporale dei processi in atto nella falda superficiale non consente di evidenziare una complessiva prevalenza di fenomeni di salinizzazione rispetto a quelli di addolcimento.
Resumo:
Scopo del presente lavoro di ricerca è quello di comparare due contesti metropolitani, valenciano e bolognese, sulle pratiche di accompagnamento al lavoro rivolte a fasce svantaggiate, in particolare persone con problemi di dipendenza da sostanze psicotrope. L’indagine propone un confronto su alcune tematiche trasversali (tipologia di azioni messe in campo, organizzazione territoriale e governance, profilo degli utenti, inserimento sociale, coinvolgimento del mondo produttivo) e pone in evidenza gli elementi che ci consentono di individuare e segnalare sia delle buone pratiche trasferibili sia delle linee progettuali, partendo dunque dal presupposto che capacitare una persona significa innanzitutto offrirle congrue opportunità di scelta, nel senso seniano e come spiegato dalla stessa Nussbaum, ma soprattutto accompagnarla e sostenerla nel percorso di inserimento lavorativo e, in parallelo, sociale. Il bisogno raccolto è quello di un sostegno, motivazionale e orientativo, che segua un approccio socio educativo capace di fornire, alla persona, una risposta integrata, di unicità, capace dunque di agire sull’autonomia, sull’autostima, sull’elaborazione delle proprie esperienze di vita e lavorative, nonché su elementi anche di contesto quali la casa, le reti amicali e familiari, spesso compromesse. L’elemento distintivo che consente di agire in questa direzione è il lavoro di collaborazione tra i diversi servizi e la co-progettazione del percorso con l’utente stesso. Il tema degli inserimenti lavorativi è un argomento molto complesso che chiama in causa diversi aspetti: i mutamenti sociali e le trasformazioni del lavoro; l’emergere di nuove fasce deboli e il rischio di aggravamento delle condizioni di esclusione per le fasce deboli “tradizionali”; l’importanza del lavoro per la costruzione di percorsi identitari e di riconoscimento; l’impatto delle politiche attive sulle fasce svantaggiate e i concetti di capitazione e attivazione; il ruolo del capitale sociale e l’emergere di nuovi welfare; la rete degli attori coinvolti dal processo di inserimento e il tema della governace territoriale.
Resumo:
Perfusion CT imaging of the liver has potential to improve evaluation of tumour angiogenesis. Quantitative parameters can be obtained applying mathematical models to Time Attenuation Curve (TAC). However, there are still some difficulties for an accurate quantification of perfusion parameters due, for example, to algorithms employed, to mathematical model, to patient’s weight and cardiac output and to the acquisition system. In this thesis, new parameters and alternative methodologies about liver perfusion CT are presented in order to investigate the cause of variability of this technique. Firstly analysis were made to assess the variability related to the mathematical model used to compute arterial Blood Flow (BFa) values. Results were obtained implementing algorithms based on “ maximum slope method” and “Dual input one compartment model” . Statistical analysis on simulated data demonstrated that the two methods are not interchangeable. Anyway slope method is always applicable in clinical context. Then variability related to TAC processing in the application of slope method is analyzed. Results compared with manual selection allow to identify the best automatic algorithm to compute BFa. The consistency of a Standardized Perfusion Index (SPV) was evaluated and a simplified calibration procedure was proposed. At the end the quantitative value of perfusion map was analyzed. ROI approach and map approach provide related values of BFa and this means that pixel by pixel algorithm give reliable quantitative results. Also in pixel by pixel approach slope method give better results. In conclusion the development of new automatic algorithms for a consistent computation of BFa and the analysis and definition of simplified technique to compute SPV parameter, represent an improvement in the field of liver perfusion CT analysis.
Resumo:
The quest for universal memory is driving the rapid development of memories with superior all-round capabilities in non-volatility, high speed, high endurance and low power. The memory subsystem accounts for a significant cost and power budget of a computer system. Current DRAM-based main memory systems are starting to hit the power and cost limit. To resolve this issue the industry is improving existing technologies such as Flash and exploring new ones. Among those new technologies is the Phase Change Memory (PCM), which overcomes some of the shortcomings of the Flash such as durability and scalability. This alternative non-volatile memory technology, which uses resistance contrast in phase-change materials, offers more density relative to DRAM, and can help to increase main memory capacity of future systems while remaining within the cost and power constraints. Chalcogenide materials can suitably be exploited for manufacturing phase-change memory devices. Charge transport in amorphous chalcogenide-GST used for memory devices is modeled using two contributions: hopping of trapped electrons and motion of band electrons in extended states. Crystalline GST exhibits an almost Ohmic I(V) curve. In contrast amorphous GST shows a high resistance at low biases while, above a threshold voltage, a transition takes place from a highly resistive to a conductive state, characterized by a negative differential-resistance behavior. A clear and complete understanding of the threshold behavior of the amorphous phase is fundamental for exploiting such materials in the fabrication of innovative nonvolatile memories. The type of feedback that produces the snapback phenomenon is described as a filamentation in energy that is controlled by electron–electron interactions between trapped electrons and band electrons. The model thus derived is implemented within a state-of-the-art simulator. An analytical version of the model is also derived and is useful for discussing the snapback behavior and the scaling properties of the device.
Resumo:
Procedures for quantitative walking analysis include the assessment of body segment movements within defined gait cycles. Recently, methods to track human body motion using inertial measurement units have been suggested. It is not known if these techniques can be readily transferred to clinical measurement situations. This work investigates the aspects necessary for one inertial measurement unit mounted on the lower back to track orientation, and determine spatio-temporal features of gait outside the confines of a conventional gait laboratory. Apparent limitations of different inertial sensors can be overcome by fusing data using methods such as a Kalman filter. The benefits of optimizing such a filter for the type of motion are unknown. 3D accelerations and 3D angular velocities were collected for 18 healthy subjects while treadmill walking. Optimization of Kalman filter parameters improved pitch and roll angle estimates when compared to angles derived using stereophotogrammetry. A Weighted Fourier Linear Combiner method for estimating 3D orientation angles by constructing an analytical representation of angular velocities and allowing drift free integration is also presented. When tested this method provided accurate estimates of 3D orientation when compared to stereophotogrammetry. Methods to determine spatio-temporal features from lower trunk accelerations generally require knowledge of sensor alignment. A method was developed to estimate the instants of initial and final ground contact from accelerations measured by a waist mounted inertial device without rigorous alignment. A continuous wavelet transform method was used to filter and differentiate the signal and derive estimates of initial and final contact times. The technique was tested with data recorded for both healthy and pathologic (hemiplegia and Parkinson’s disease) subjects and validated using an instrumented mat. The results show that a single inertial measurement unit can assist whole body gait assessment however further investigation is required to understand altered gait timing in some pathological subjects.
Resumo:
1.Ricostruzione mandibolare La ricostruzione mandibolare è comunemente eseguita utilizzando un lembo libero perone. Il metodo convenzionale (indiretto) di Computer Aided Design e Computer Aided Manifacturing prevede il modellamento manuale preoperatorio di una placca di osteosintesi standard su un modello stereolitografico della mandibola. Un metodo innovativo CAD CAM diretto comprende 3 fasi: 1) pianificazione virtuale 2) computer aided design della dima di taglio mandibolari, della dima di taglio del perone e della placca di osteosintesi e 3) Computer Aided Manufacturing dei 3 dispositivi chirurgici personalizzati. 7 ricostruzioni mandibolari sono state effettuate con il metodo diretto. I risultati raggiunti e le modalità di pianificazione sono descritte e discusse. La progettazione assistita da computer e la tecnica di fabbricazione assistita da computer facilita un'accurata ricostruzione mandibolare ed apporta un miglioramento statisticamente significativo rispetto al metodo convenzionale. 2. Cavità orale e orofaringe Un metodo ricostruttivo standard per la cavità orale e l'orofaringe viene descritto. 163 pazienti affetti da cancro della cavità orale e dell'orofaringe, sono stati trattati dal 1992 al 2012 eseguendo un totale di 175 lembi liberi. La strategia chirurgica è descritta in termini di scelta del lembo, modellamento ed insetting. I modelli bidimensionali sono utilizzati per pianificare una ricostruzione tridimensionale con il miglior risultato funzionale ed estetico. I modelli, la scelta del lembo e l' insetting sono descritti per ogni regione. Complicazioni e risultati funzionali sono stati valutati sistematicamente. I risultati hanno mostrato un buon recupero funzionale con le tecniche ricostruttive descritte. Viene proposto un algoritmo ricostruttivo basato su template standard.