28 resultados para Affidabilità software tolleranza guasti errori tecniche fallimenti sistema
Resumo:
“Cartographic heritage” is different from “cartographic history”. The second term refers to the study of the development of surveying and drawing techniques related to maps, through time, i.e. through different types of cultural environment which were background for the creation of maps. The first term concerns the whole amount of ancient maps, together with these different types of cultural environment, which the history has brought us and which we perceive as cultural values to be preserved and made available to many users (public, institutions, experts). Unfortunately, ancient maps often suffer preservation problems of their analog support, mostly due to aging. Today, metric recovery in digital form and digital processing of historical cartography allow preserving map heritage. Moreover, modern geomatic techniques give us new chances of using historical information, which would be unachievable on analog supports. In this PhD thesis, the whole digital processing of recovery and elaboration of ancient cartography is reported, with a special emphasis on the use of digital tools in preservation and elaboration of cartographic heritage. It is possible to divide the workflow into three main steps, that reflect the chapter structure of the thesis itself: • map acquisition: conversion of the ancient map support from analog to digital, by means of high resolution scanning or 3D surveying (digital photogrammetry or laser scanning techniques); this process must be performed carefully, with special instruments, in order to reduce deformation as much as possible; • map georeferencing: reproducing in the digital image the native metric content of the map, or even improving it by selecting a large number of still existing ground control points; this way it is possible to understand the projection features of the historical map, as well as to evaluate and represent the degree of deformation induced by the old type of cartographic transformation (that can be unknown to us), by surveying errors or by support deformation, usually all errors of too high value with respect to our standards; • data elaboration and management in a digital environment, by means of modern software tools: vectorization, giving the map a new and more attractive graphic view (for instance, by creating a 3D model), superimposing it on current base maps, comparing it to other maps, and finally inserting it in GIS or WebGIS environment as a specific layer. The study is supported by some case histories, each of them interesting from the point of view of one digital cartographic elaboration step at least. The ancient maps taken into account are the following ones: • three maps of the Po river delta, made at the end of the XVI century by a famous land-surveyor, Ottavio Fabri (he is single author in the first map, co-author with Gerolamo Pontara in the second map, co-author with Bonajuto Lorini and others in the third map), who wrote a methodological textbook where he explains a new topographical instrument, the squadra mobile (mobile square) invented and used by himself; today all maps are preserved in the State Archive of Venice; • the Ichnoscenografia of Bologna by Filippo de’ Gnudi, made in the 1702 and today preserved in the Archiginnasio Library of Bologna; it is a scenographic view of the city, captured in a bird’s eye flight, but also with an icnographic value, as the author himself declares; • the map of Bologna by the periti Gregorio Monari and Antonio Laghi, the first map of the city derived from a systematic survey, even though it was made only ten years later (1711–1712) than the map by de’ Gnudi; in this map the scenographic view was abandoned, in favor of a more correct representation by means of orthogonal projection; today the map is preserved in the State Archive of Bologna; • the Gregorian Cadastre of Bologna, made in 1831 and updated until 1927, now preserved in the State Archive of Bologna; it is composed by 140 maps and 12 brogliardi (register volumes). In particular, the three maps of the Po river delta and the Cadastre were studied with respect to their acquisition procedure. Moreover, the first maps were analyzed from the georeferencing point of view, and the Cadastre was analyzed with respect to a possible GIS insertion. Finally, the Ichnoscenografia was used to illustrate a possible application of digital elaboration, such as 3D modeling. Last but not least, we must not forget that the study of an ancient map should start, whenever possible, from the consultation of the precious original analogical document; analysis by means of current digital techniques allow us new research opportunities in a rich and modern multidisciplinary context.
Resumo:
The "sustainability" concept relates to the prolonging of human economic systems with as little detrimental impact on ecological systems as possible. Construction that exhibits good environmental stewardship and practices that conserve resources in a manner that allow growth and development to be sustained for the long-term without degrading the environment are indispensable in a developed society. Past, current and future advancements in asphalt as an environmentally sustainable paving material are especially important because the quantities of asphalt used annually in Europe as well as in the U.S. are large. The asphalt industry is still developing technological improvements that will reduce the environmental impact without affecting the final mechanical performance. Warm mix asphalt (WMA) is a type of asphalt mix requiring lower production temperatures compared to hot mix asphalt (HMA), while aiming to maintain the desired post construction properties of traditional HMA. Lowering the production temperature reduce the fuel usage and the production of emissions therefore and that improve conditions for workers and supports the sustainable development. Even the crumb-rubber modifier (CRM), with shredded automobile tires and used in the United States since the mid 1980s, has proven to be an environmentally friendly alternative to conventional asphalt pavement. Furthermore, the use of waste tires is not only relevant in an environmental aspect but also for the engineering properties of asphalt [Pennisi E., 1992]. This research project is aimed to demonstrate the dual value of these Asphalt Mixes in regards to the environmental and mechanical performance and to suggest a low environmental impact design procedure. In fact, the use of eco-friendly materials is the first phase towards an eco-compatible design but it cannot be the only step. The eco-compatible approach should be extended also to the design method and material characterization because only with these phases is it possible to exploit the maximum potential properties of the used materials. Appropriate asphalt concrete characterization is essential and vital for realistic performance prediction of asphalt concrete pavements. Volumetric (Mix design) and mechanical (Permanent deformation and Fatigue performance) properties are important factors to consider. Moreover, an advanced and efficient design method is necessary in order to correctly use the material. A design method such as a Mechanistic-Empirical approach, consisting of a structural model capable of predicting the state of stresses and strains within the pavement structure under the different traffic and environmental conditions, was the application of choice. In particular this study focus on the CalME and its Incremental-Recursive (I-R) procedure, based on damage models for fatigue and permanent shear strain related to the surface cracking and to the rutting respectively. It works in increments of time and, using the output from one increment, recursively, as input to the next increment, predicts the pavement conditions in terms of layer moduli, fatigue cracking, rutting and roughness. This software procedure was adopted in order to verify the mechanical properties of the study mixes and the reciprocal relationship between surface layer and pavement structure in terms of fatigue and permanent deformation with defined traffic and environmental conditions. The asphalt mixes studied were used in a pavement structure as surface layer of 60 mm thickness. The performance of the pavement was compared to the performance of the same pavement structure where different kinds of asphalt concrete were used as surface layer. In comparison to a conventional asphalt concrete, three eco-friendly materials, two warm mix asphalt and a rubberized asphalt concrete, were analyzed. The First Two Chapters summarize the necessary steps aimed to satisfy the sustainable pavement design procedure. In Chapter I the problem of asphalt pavement eco-compatible design was introduced. The low environmental impact materials such as the Warm Mix Asphalt and the Rubberized Asphalt Concrete were described in detail. In addition the value of a rational asphalt pavement design method was discussed. Chapter II underlines the importance of a deep laboratory characterization based on appropriate materials selection and performance evaluation. In Chapter III, CalME is introduced trough a specific explanation of the different equipped design approaches and specifically explaining the I-R procedure. In Chapter IV, the experimental program is presented with a explanation of test laboratory devices adopted. The Fatigue and Rutting performances of the study mixes are shown respectively in Chapter V and VI. Through these laboratory test data the CalME I-R models parameters for Master Curve, fatigue damage and permanent shear strain were evaluated. Lastly, in Chapter VII, the results of the asphalt pavement structures simulations with different surface layers were reported. For each pavement structure, the total surface cracking, the total rutting, the fatigue damage and the rutting depth in each bound layer were analyzed.
Resumo:
Il rapido progresso della tecnologia, lo sviluppo di prodotti altamente sofisticati, la forte competizione globale e l’aumento delle aspettative dei clienti hanno messo nuove pressioni sui produttori per garantire la commercializzazione di beni caratterizzati da una qualità sempre crescente. Sono gli stessi clienti che da anni si aspettano di trovare sul mercato prodotti contraddistinti da un livello estremo di affidabilità e sicurezza. Tutti siamo consapevoli della necessità per un prodotto di essere quanto più sicuro ed affidabile possibile; ma, nonostante siano passati oramai 30 anni di studi e ricerche, quando cerchiamo di quantificare ingegneristicamente queste caratteristiche riconducibili genericamente al termine qualità, oppure quando vogliamo provare a calcolare i benefici concreti che l’attenzione a questi fattori quali affidabilità e sicurezza producono su un business, allora le discordanze restano forti. E le discordanze restano evidenti anche quando si tratta di definire quali siano gli “strumenti più idonei” da utilizzare per migliorare l’affidabilità e la sicurezza di un prodotto o processo. Sebbene lo stato dell’arte internazionale proponga un numero significativo di metodologie per il miglioramento della qualità, tutte in continuo perfezionamento, tuttavia molti di questi strumenti della “Total Quality” non sono concretamente applicabili nella maggior parte delle realtà industriale da noi incontrate. La non applicabilità di queste tecniche non riguarda solo la dimensione più limitata delle aziende italiane rispetto a quelle americane e giapponesi dove sono nati e stati sviluppati questi strumenti, oppure alla poca possibilità di effettuare investimenti massicci in R&D, ma è collegata anche alla difficoltà che una azienda italiana avrebbe di sfruttare opportunamente i risultati sui propri territori e propri mercati. Questo lavoro si propone di sviluppare una metodologia semplice e organica per stimare i livelli di affidabilità e di sicurezza raggiunti dai sistemi produttivi e dai prodotti industriali. Si pone inoltre di andare al di là del semplice sviluppo di una metodologia teorica, per quanto rigorosa e completa, ma di applicare in forma integrata alcuni dei suoi strumenti a casi concreti di elevata valenza industriale. Questa metodologia come anche, più in generale, tutti gli strumenti di miglioramento di affidabilità qui presentati, interessano potenzialmente una vasta gamma di campi produttivi, ma si prestano con particolare efficacia in quei settori dove coesistono elevate produzioni e fortissime esigenze qualitative dei prodotti. Di conseguenza, per la validazione ed applicazione ci si è rivolti al settore dell’automotive, che da sempre risulta particolarmente sensibile ai problemi di miglioramento di affidabilità e sicurezza. Questa scelta ha portato a conclusioni la cui validità va al di là di valori puramente tecnici, per toccare aspetti non secondari di “spendibilità” sul mercato dei risultati ed ha investito aziende di primissimo piano sul panorama industriale italiano.
Resumo:
La ricerca consta di quattro capitoli: nella prima parte si analizzano, in prospettiva empirica, i canoni argomentativi utilizzati dalla Corte costituzionale italiana. Tali canoni possono essere generalmente distinti in due grandi famiglie: giuridico-interpretativi per un verso, e ed empirico fattuali per un altro. In un secondo capitolo si è visto come la Corte costituzionale italiana ha frutto uso di questi canoni nella sua giurisprudenza italiana in tema di diritto soggettivo di libertà di espressione e di mezzi di comunicazione del pensiero. Nel primo caso la Corte costituzionale ha fatto ricorso a canoni interpretativi testuali, mentre nel secondo ad argomentazioni empiriche spesso accompagnate da un giudizio di proporzionalità sull'intervento legislativo. Nella terza parte del lavoro si è invece descritta la giurisprudenza della Corte Suprema americana: è stata analizzata l'evoluzione delle tecniche argomentativi in tema di libertà di espressione: partendo dall'ad hoc balancing e dal definitional balancing si è giunti alla descrizione dei diversi livelli di scrutinio e alla progressiva concettualizzazione delle categorie espressive. Infine nel quarto capitolo si sono messe a confronto le due giurisprudenze: si è potuto così notare che la progressiva categorizzazione del diritto di libertà negli Stati Uniti ha dato esiti maggiormente garantisti, mentre più liberisti in relazione alle concrete dinamiche di formazione del discorso pubblico. Viceversa, in Italia i canoni testuali hanno originato una giurisprudenza più restrittiva quanto al diritto soggettivo e più egualitaria quanto al sistema della libertà di espressione. In ogni caso, entrambe le esperienze evidenziano il ruolo di policy-maker delle Corti costituzionali nei moderni ordinamenti liberal-democratici.
Resumo:
Il presente studio si concentra sulle diverse applicazioni del telerilevamento termico in ambito urbano. Vengono inizialmente descritti la radiazione infrarossa e le sue interazioni con l’atmosfera terrestre, le leggi principali che regolano lo scambio di calore per irraggiamento, le caratteristiche dei sensori e le diverse applicazioni di termografia. Successivamente sono trattati nel dettaglio gli aspetti caratteristici della termografia da piattaforma satellitare, finalizzata principalmente alla valutazione del fenomeno dell'Urban Heat Island; vengono descritti i sensori disponibili, le metodologie di correzione per gli effetti atmosferici, per la stima dell'emissività delle superfici e per il calcolo della temperatura superficiale dei pixels. Viene quindi illustrata la sperimentazione effettuata sull'area di Bologna mediante immagini multispettrali ASTER: i risultati mostrano come sull'area urbana sia riscontrabile la presenza dell'Isola di Calore Urbano, anche se la sua quantificazione risulta complessa. Si procede quindi alla descrizione di potenzialità e limiti della termografia aerea, dei suoi diversi utilizzi, delle modalità operative di rilievo e degli algoritmi utilizzati per il calcolo della temperatura superficiale delle coperture edilizie. Tramite l’analisi di alcune esperienze precedenti vengono trattati l’influenza dell’atmosfera, la modellazione dei suoi effetti sulla radianza rilevata, i diversi metodi per la stima dell’emissività. Viene quindi introdotto il progetto europeo Energycity, finalizzato alla creazione di un sistema GeoWeb di supporto spaziale alle decisioni per la riduzione di consumi energetici e produzione di gas serra su sette città dell'Europa Centrale. Vengono illustrate le modalità di rilievo e le attività di processing dei datasets digitali per la creazione di mappe di temperatura superficiale da implementare nel sistema SDSS. Viene infine descritta la sperimentazione effettuata sulle immagini termiche acquisite nel febbraio 2010 sulla città di Treviso, trasformate in un mosaico georiferito di temperatura radiometrica tramite correzioni geometriche e radiometriche; a seguito della correzione per l’emissività quest’ultimo verrà trasformato in un mosaico di temperatura superficiale.
Resumo:
Le profonde trasformazioni che hanno interessato l’industria alimentare, unitamente alle accresciute capacità delle scienze mediche ed epidemiologiche di individuare nessi causali tra il consumo di determinate sostanze e l’insorgere di patologie, hanno imposto al legislatore di intervenire nella materia della c.d. sicurezza alimentare mettendo in atto sistemi articolati e complessi tesi a tutelare la salute dei consociati. Quest’ultimo obiettivo viene perseguito, da un lato, mediante disposizioni di natura pubblicistica e di carattere preventivo e, dall’altro lato, dallo strumento della responsabilità civile. Le due prospettive di tutela della salute delle persone costituiscono parti distinte ma al tempo stesso fortemente integrate in una logica unitaria. Questa prospettiva emerge chiaramente nel sistema statunitense: in quel ordinamento la disciplina pubblicistica della sicurezza degli alimenti – definita dalla Food and Drug Administration – costituisce un punto di riferimento imprescindibile anche quando si tratta di stabilire se un prodotto alimentare è difettoso e se, di conseguenza, il produttore è chiamato a risarcire i danni che scaturiscono dal suo utilizzo. L’efficace sinergia che si instaura tra la dimensione pubblicistica del c.d. Public Enforcement e quella risarcitoria (Private Enforcement) viene ulteriormente valorizzata dalla presenza di efficaci strumenti di tutela collettiva tra i quali la class action assume una importanza fondamentale. Proprio muovendo dall’analisi del sistema statunitense, l’indagine si appunta in un primo momento sull’individuazione delle lacune e delle criticità che caratterizzano il sistema nazionale e, più in generale quello comunitario. In un secondo momento l’attenzione si focalizza sull’individuazione di soluzioni interpretative e de iure condendo che, anche ispirandosi agli strumenti di tutela propri del diritto statunitense, contribuiscano a rendere maggiormente efficace la sinergia tra regole preventive sulla sicurezza alimentare e regole risarcitorie in materia di responsabilità del produttore.
Resumo:
A control-oriented model of a Dual Clutch Transmission was developed for real-time Hardware In the Loop (HIL) applications, to support model-based development of the DCT controller. The model is an innovative attempt to reproduce the fast dynamics of the actuation system while maintaining a step size large enough for real-time applications. The model comprehends a detailed physical description of hydraulic circuit, clutches, synchronizers and gears, and simplified vehicle and internal combustion engine sub-models. As the oil circulating in the system has a large bulk modulus, the pressure dynamics are very fast, possibly causing instability in a real-time simulation; the same challenge involves the servo valves dynamics, due to the very small masses of the moving elements. Therefore, the hydraulic circuit model has been modified and simplified without losing physical validity, in order to adapt it to the real-time simulation requirements. The results of offline simulations have been compared to on-board measurements to verify the validity of the developed model, that was then implemented in a HIL system and connected to the TCU (Transmission Control Unit). Several tests have been performed: electrical failure tests on sensors and actuators, hydraulic and mechanical failure tests on hydraulic valves, clutches and synchronizers, and application tests comprehending all the main features of the control performed by the TCU. Being based on physical laws, in every condition the model simulates a plausible reaction of the system. The first intensive use of the HIL application led to the validation of the new safety strategies implemented inside the TCU software. A test automation procedure has been developed to permit the execution of a pattern of tests without the interaction of the user; fully repeatable tests can be performed for non-regression verification, allowing the testing of new software releases in fully automatic mode.
Resumo:
L’obiettivo del lavoro consiste nell’implementare una metodologia operativa volta alla progettazione di reti di monitoraggio e di campagne di misura della qualità dell’aria con l’utilizzo del laboratorio mobile, ottimizzando le posizioni dei dispositivi di campionamento rispetto a differenti obiettivi e criteri di scelta. La revisione e l’analisi degli approcci e delle indicazioni fornite dalla normativa di riferimento e dai diversi autori di lavori scientifici ha permesso di proporre un approccio metodologico costituito da due fasi operative principali, che è stato applicato ad un caso studio rappresentato dal territorio della provincia di Ravenna. La metodologia implementata prevede l’integrazione di numerosi strumenti di supporto alla valutazione dello stato di qualità dell’aria e degli effetti che gli inquinanti atmosferici possono generare su specifici recettori sensibili (popolazione residente, vegetazione, beni materiali). In particolare, la metodologia integra approcci di disaggregazione degli inventari delle emissioni attraverso l’utilizzo di variabili proxy, strumenti modellistici per la simulazione della dispersione degli inquinanti in atmosfera ed algoritmi di allocazione degli strumenti di monitoraggio attraverso la massimizzazione (o minimizzazione) di specifiche funzioni obiettivo. La procedura di allocazione sviluppata è stata automatizzata attraverso lo sviluppo di un software che, mediante un’interfaccia grafica di interrogazione, consente di identificare delle aree ottimali per realizzare le diverse campagne di monitoraggio
Resumo:
The monitoring of cognitive functions aims at gaining information about the current cognitive state of the user by decoding brain signals. In recent years, this approach allowed to acquire valuable information about the cognitive aspects regarding the interaction of humans with external world. From this consideration, researchers started to consider passive application of brain–computer interface (BCI) in order to provide a novel input modality for technical systems solely based on brain activity. The objective of this thesis is to demonstrate how the passive Brain Computer Interfaces (BCIs) applications can be used to assess the mental states of the users, in order to improve the human machine interaction. Two main studies has been proposed. The first one allows to investigate whatever the Event Related Potentials (ERPs) morphological variations can be used to predict the users’ mental states (e.g. attentional resources, mental workload) during different reactive BCI tasks (e.g. P300-based BCIs), and if these information can predict the subjects’ performance in performing the tasks. In the second study, a passive BCI system able to online estimate the mental workload of the user by relying on the combination of the EEG and the ECG biosignals has been proposed. The latter study has been performed by simulating an operative scenario, in which the occurrence of errors or lack of performance could have significant consequences. The results showed that the proposed system is able to estimate online the mental workload of the subjects discriminating three different difficulty level of the tasks ensuring a high reliability.
Resumo:
La ricerca è volta a presentare un nuovo approccio integrato, a supporto di operatori e progettisti, per la gestione dell’intero processo progettuale di interventi di riqualificazione energetica e architettonica del patrimonio edilizio recente, mediante l’impiego di soluzioni tecnologiche innovative di involucro edilizio. Lo studio richiede necessariamente l’acquisizione di un repertorio selezionato di sistemi costruttivi di involucro, come base di partenza per l’elaborazione di soluzioni progettuali di recupero delle scuole appartenenti al secondo dopoguerra, in conglomerato cementizio armato, prevalentemente prefabbricate. Il progetto individua procedimenti costruttivi ecocompatibili per la progettazione di componenti prefabbricati di involucro “attivo”, adattabile ed efficiente, da assemblare a secco, nel rispetto dei requisiti prestazionali richiesti dalle attuali normative. La ricerca è finalizzata alla gestione dell’intero processo, supportato da sistemi di rilevazione geometrica, collegati a software di programmazione parametrica per la modellazione di superfici adattabili alla morfologia dei fabbricati oggetto di intervento. Tali strumenti informatizzati CAD-CAM sono connessi a macchine a controllo numerico CNC per la produzione industrializzata degli elementi costruttivi “su misura”. A titolo esemplificativo dell’approccio innovativo proposto, si formulano due possibili soluzioni di involucro in linea con i paradigmi della ricerca, nel rispetto dei principi di sostenibilità, intesa come modularità, rapidità di posa, reversibilità, recupero e riciclo di materiali. In particolare, le soluzioni innovative sono accomunate dall’applicazione di una tecnica basata sull’assemblaggio di elementi prefabbricati, dall’adozione di una trama esagonale per la tassellazione della nuova superficie di facciata, e dall’utilizzo del medesimo materiale termico isolante, plastico e inorganico, riciclato ed ecosostenibile, a basso impatto ambientale (AAM - Alkali Activated Materials). Le soluzioni progettuali proposte, sviluppate presso le due sedi coinvolte nella cotutela (Università di Bologna, Université Paris-Est) sono affrontate secondo un protocollo scientifico che prevede: progettazione del sistema costruttivo, analisi meccanica e termica, sperimentazione costruttiva, verifica delle tecniche di messa in opera e dei requisiti prestazionali.
Resumo:
Questo studio prospettico valuta l’efficacia e i vantaggi del sistema LigasureTM rispetto alle tecniche chirurgiche tradizionali, in quattro differenti procedure eseguite su 77 cani. I soggetti sono stati suddivisi in 4 gruppi, a seconda della chirurgia eseguita: Gruppo 1, 25 pazienti sottoposti a Splenectomia “aperta” semplice; Gruppo 2, 15 pazienti sottoposti a Splenectomia “aperta” complessa; Gruppo 3, 22 pazienti sottoposti ad Ovariectomia “aperta”. Gruppo 4: 18 pazienti sottoposti a Linfoadenectomia. Ciascun gruppo è stato a sua volta suddiviso in due sottogruppi: a (LigasureTM) e b (Tradizionale), a seconda della metodica utilizzata. Sono stati analizzati: il segnalamento, i parametri ematologici, le condizioni cliniche, le informazioni riguardanti l’intervento chirurgico e l’outcome. In tutti i gruppi il ricorso all’utilizzo di garze nonché dei fili da sutura sono risultati statisticamente inferiori nei pazienti operati con il sistema a radiofrequenza (Gruppo 1, P < 0.0001; Gruppo 2, P < 0,0014; Gruppo 3, P = 0,0001; Gruppo 4, P = 0,0148). Anche i tempi per la rimozione dell’organo sono significativamente ridotti in tutti i gruppi in cui è stato utilizzato il sistema LigasureTM (Gruppo 1 P < 0.0001; Gruppo 2 P < 0,0014; Gruppo 3 P = 0,0009; Gruppo 4 P = 0,0008), come i tempi chirurgici nei gruppi 1, 2 e 3 (P = 0,0287; P = 0,0064; e P = 0,0124) ed anestesiologici nei gruppi 1a e 2a (P = 0,0176; P = 0,0043). Tra le variabili analizzate, l’utilizzo del sistema di sintesi vascolare a radiofrequenza, è l’unico ad influenzare i tempi necessari per l’esecuzione della procedura. Questo studio dimostra, quindi, come il sistema LigasureTM sia sicuro ed efficace per le procedure chirurgiche esaminate, riducendo i tempi della chirurgia e limitando, quindi, i rischi per il paziente, indipendentemente dall’operatore, dall’esecuzione di altre procedure contemporanee e dalla natura della patologia splenica o linfonodale.
Resumo:
La tesi si propone l’obiettivo di indagare le modalità di interazione tra conoscenze tecnico-scientifiche e dato normativo, a partire dallo studio delle c.d. norme tecniche, ossia le norme, dotate di forza giuridica o meno, elaborate sulla base di conoscenze tecnico-scientifiche. La ricerca analizza diversi settori dell’ordinamento, accomunati da un’elevata influenza di saperi tecnici e al tempo stesso da un’indubbia rilevanza dal punto di vista costituzionale (la disciplina delle sperimentazioni cliniche dei farmaci, quella delle emissioni inquinanti di origine industriale e quella relativa agli standard di sicurezza dei prodotti), individuando quelle che al loro interno si possono considerare norme tecniche e mettendone in luce sia i profili formali (in quali atti-fonte sono contenute, quale natura giuridica presentano) che il procedimento di formazione, con particolare attenzione ai soggetti che vi prendono parte. Si propone quindi una sistematizzazione degli elementi emersi dall’indagine a partire da due diverse prospettive: in primo luogo tali dati vengono analizzati dal punto di vista dogmatico, individuando i diversi meccanismi di ingresso del dato tecnico-scientifico nel tessuto normativo (incorporazione nella norma giuridica, impiego di clausole generali, rinvio a norme extra-giuridiche), al fine di mettere in luce eventuali profili problematici per quanto riguarda il sistema delle fonti. La seconda prospettiva prende invece quale punto di riferimento il “centro di elaborazione sostanziale” delle norme considerate, al fine di evidenziarne i diversi fattori di legittimazione: a partire da esigenze di armonizzazione della disciplina e dall’assunto della neutralità delle conoscenze tecnico-scientifiche rispetto agli interessi coinvolti, l’elaborazione delle norme tecniche vede infatti un significativo ripensamento degli equilibri non solo fra attori pubblici e privati, ma anche tra legittimazione politica e legittimazione “tecnica” della scelta normativa. A tali aspetti è dedicata la parte conclusiva del lavoro, in particolare per quanto riguarda la conformità rispetto al disegno costituzionale.
Resumo:
Dopo un’introduzione sull’economia nel mondo antico e nella Galilea, la tesi affronta una rappresentazione storica de “Il Mare di Galilea tra l’antichità e oggi” (cap. 3). Seguono i capitoli sulle “Tecniche e le attrezzature di pesca” (cap.4) e su “Città, villaggi e aree di pesca” (Cap. 5). Due capitoli riguardano più particolarmente l’attività economica in senso stretto: “L’organizzazione dell’attività” (cap. 6) e “Commercio ed esportazione” (cap. 7). Chiudono la tesi due capitoli di carattere più metodologico: una rappresentazione degli agenti sociali della pesca (“i pescatori”) condotta ispirandosi alla network Analysis e un’analisi antropologica del loro sistema di vita (capitolo finale).La tesi è basata essenzialmente su tre corpi di documentazione: papiri documentari, dati archeologici, fonti storiche e letterarie. Molti dei documenti reperiti, in lingua greca, non erano mai stati tradotti in lingue moderne.La tesi consta – oltre ai diversi capitoli – anche di un’appendice documentaria molto estesa