348 resultados para norme de Rauzy
Resumo:
Le ragioni della delocalizzazione sono molteplici e di differente natura. Si delocalizza, in primo luogo, per ragioni di stampo economico, finanziario eccetera, ma questa spinta naturale alla delocalizzazione è controbilanciata, sul piano strettamente tributario, dall’esigenza di preservare il gettito e da quella di controllare la genuinità della delocalizzazione medesima. E’ dunque sul rapporto tra “spinte delocalizzative” dell’impresa, da un lato, ed esigenze “conservative” del gettito pubblico, dall’altro, che si intende incentrare il presente lavoro. Ciò alla luce del fatto che gli strumenti messi in campo dallo Stato al fine di contrastare la delocalizzazione (più o meno) artificiosa delle attività economiche devono fare i conti con i principi comunitari introdotti con il Trattato di Roma e tratteggiati negli anni dalla giurisprudenza della Corte di Giustizia. In quest’ottica, la disciplina delle CFC costituisce un ottimo punto di partenza per guardare ai fenomeni di produzione transnazionale della ricchezza e agli schemi di ordine normativo preposti alla tassazione di codesta ricchezza. Ed infatti, le norme sulle CFC non fanno altro che omogeneizzare un sistema che, altrimenti, sarebbe lasciato alla libera iniziativa degli uffici fiscali. Tale “normalizzazione”, peraltro, giustifica le esigenze di apertura che sono incanalate nella disciplina degli interpelli disapplicativi. Con specifico riferimento alla normativa CFC, assumono particolare rilievo la libertà di stabilimento ed il principio di proporzionalità anche nella prospettiva del divieto di abuso del diritto. L’analisi dunque verterà sulla normativa CFC italiana con l’intento di comprendere se codesta normativa, nelle sue diverse sfaccettature, possa determinare situazioni di contrasto con i principi comunitari. Ciò anche alla luce delle recenti modifiche introdotte dal legislatore con il d.l. 78/2009 in un quadro normativo sempre più orientato a combattere le delocalizzazioni meramente fittizie.
Resumo:
La libertad de establecimiento y la movilidad de las empresas juegan un papel fundamental en el proceso comunitario de integración. Las empresas buscan nuevas formas de cooperación e integración que les permitan ocupar cuotas de mercado cada vez más importantes. De entre las modalidades de integración y cooperación que tienen a su disposición, la fusión transfronteriza de sociedades es, sin duda, una de las más relevantes. Es evidente que las fusiones de sociedades pertenecientes a Estados miembros distintos podrían tener una enorme importancia en el proceso de integración del mercado único. Sin embargo, la posibilidad de llevar a cabo con éxito una fusión transfronteriza en el ámbito comunitario era improbable hasta época reciente. Dos tipos de impedimentos la dificultaban: por una parte, obstáculos a la libertad de establecimiento por parte de los ordenamientos jurídicos de los Estados miembros; por otro, obstáculos de Derecho internacional privado. En cambio, hoy la mayor parte de estos impedimentos han sido superados gracias, en primer lugar, al progresivo reconocimiento del derecho de establecimiento de las sociedades por el Tribunal de Justicia, y en segundo, a la importante Directiva 2005/56/CE relativa a las fusiones transfronterizas de sociedades de capital. Esta Directiva impone a los Estados miembros una serie de normas de mínimos de derecho material a fin de armonizar la tutela de los intereses de los sujetos implicados más débiles (sobre todo, los trabajadores y los socios). De igual manera, establece una serie de normas de conflicto para resolver la cuestión de la ley aplicable a las fusiones transfronterizas. Este trabajo tiene como objetivo principal valorar la relevancia de los pronunciamientos del Tribunal de Justicia y de las actuaciones del legislador europeo orientados a impedir las restricciones a las fusiones transfronterizas de sociedades en el territorio comunitario.
Resumo:
Questa ricerca si pone come obbiettivo lo studio e l’analisi delle diverse manifestazioni del gioco d’azzardo nella Bologna della fine del XIX secolo. Partendo dall’assunto che le forme ludiche non rappresentino solo una pratica, né soltanto un fatto sociale o economico ma sono piuttosto la somma di diverse componenti, ci si è proposti di studiare la storia a partire da uno specifico punto di vista: quello dei giochi e dei giocatori legati alle pratiche del rischio. Tramite le carte d’archivio della polizia e altri documenti dell’epoca si sono indagati i diversi aspetti del fenomeno dell’azzardo: i luoghi in cui essi venivano praticati, le norme che li regolavano, gli strati sociali entro cui venivano giocati, le mutazioni delle condizioni politiche e sociali che portarono al cambiamento delle diverse forme ludiche e delle comunità che lo hanno praticato e contestualmente si è cercato di comprendere come cambino e come permangano la percezione del rischio, l’idea di competizione, la stessa attitudine al gioco.
Resumo:
“Difetto di Informazione e danno da prodotto” è un tema di grande interesse ed attualità, in un momento storico in cui si è riacceso il dibattito sulla disciplina della responsabilità per danni da prodotto difettoso. Complice è “il difetto di informazione”, da sempre rimasto ai margini della casistica giurisprudenziale, ma che improvvisamente “ruba la scena” imponendosi all'attenzione della Cassazione (nn. 6007/2007 e 20985/2007) e rivelando nodi interpretativi di forte impatto pratico nelle cause di responsabilità del produttore. Di qui l’esigenza di approfondire la complessa tematica degli information defects, sotto il profilo della nozione di “difetto” e della sua prova, nonché dell’incidenza di eventuali carenze informative sulla responsabilità del produttore. Muovendo dall’analisi della Direttiva e della sua attuazione italiana, il lavoro individua i punti nodali di tale disciplina ed i vari limiti posti – sia a livello interpretativo che applicativo - alla tutela del danneggiato, suscettibili di renderla meno “appetibile” di quanto potrebbe sembrare. Affronta, quindi, criticamente le questioni trattate nelle due sentenze di legittimità del 2007 in ordine sia alla distribuzione tra le parti dell'onere probatorio, sia alla rilevanza delle informazioni fornite dal produttore. Peculiare interrogativo cui si cerca di dare risposta è se, ed in che misura, l’“informazione” consenta al produttore di andare esente da responsabilità. Il lavoro passa ad esplorare i nuovi scenari offerti dalla interazione tra la disciplina della responsabilità del produttore e quella sulla sicurezza generale dei prodotti, la cui coesistenza all’interno del medesimo corpo di norme pone nuovi interrogativi, quali la sussistenza della responsabilità del produttore di un bene “conforme” ed il ruolo dell’informazione nell’ipotesi di prodotti non difettosi e/o “conformi”. La ricerca affronta tali interrogativi con sguardo critico e provocatorio sollevando il dubbio se la “conformità alle norme armonizzate” non rischi di diventare una “nuova” clausola di esonero della responsabilità del produttore.
Resumo:
La mia sperimentazione si inserisce in un progetto di respiro nazionale- “AGER-STAY FRESH”- volto a trovare soluzioni di lavaggio alternative al cloro per il prolungamento della shelf-life delle produzioni di IV gamma. Questi prodotti rappresentano, attualmente, uno dei più promettenti ed innovativi comparti del settore ortofrutticolo e sono definiti, secondo le norme della Comunità Europea, prodotti minimamente trasformati, cioè soggetti a interventi tecnologici ridotti, ed utilizzabili per il consumo diretto senza ulteriori manipolazioni, o con manipolazioni minime. La loro espansione sul mercato deriva dal fatto che sono in grado di offrire alta convenienza, alto valore nutrizionale ed organolettico e sono concepiti dai consumatori come prodotti “genuini” in quanto a base vegetale e, generalmente, non contengono sostanze antimicrobiche. Tuttavia, le materie prime vegetali utilizzate per le produzioni di IV gamma sono spesso caratterizzate da elevate contaminazioni microbiche (4-6 log UFC/g) poiché, durante la crescita o il post-raccolta, frutti o vegetali vengono a contatto con il suolo, insetti o contaminazioni di origine umana.Al momento la shelf-life e la sicurezza d’uso di questa categoria di prodotti sono basate principalmente sul mantenimento della catena del freddo unitamente alla fase di lavaggio delle materie prime con sostanze clorate. Recentemente, però, alcuni autori hanno evidenziato alcuni svantaggi derivanti da questa fase di processo come la formazione di composti clorati cancerogeni. In questa prospettiva, il principale obiettivo di questo lavoro di tesi è stato quello di valutare gli effetti di olio essenziale di cedro e alcuni composti bioattivi degli oli essenziali (citrale, esanale, trans-2-esenale e carvacrolo), utilizzati singolarmente o in combinazione, sulla shelf-life di mele affettate di IV gamma. Su tutti i prodotti sono state eseguite analisi microbiologiche, di texture e colore. Un ulteriore obiettivo di questo lavoro sperimentale è stato quello di ottimizzare alcuni parametri di processo come la riduzione del rapporto acqua di lavaggio/prodotto ed incrementare la temperatura dell’acqua utilizzata al fine di meglio solubilizzare gli antimicrobici in fase di dipping.
Resumo:
La ricerca esamina il ruolo delle imprese che svolgono attività di sicurezza privata in Italia (oggi definita anche "sussidiaria" o "complementare") in relazione allo sviluppo delle recenti politiche sociali che prevedono il coinvolgimento di privati nella gestione della sicurezza in una prospettiva di community safety. Nel 2008/2009 le politiche pubbliche di sicurezza legate al controllo del territorio hanno prodotto norme con nuovi poteri “di polizia” concessi agli amministratori locali e la previsione di associazione di cittadini per la segnalare eventi dannosi alla sicurezza urbana (“ronde”). Nello stesso periodo è iniziata un’importante riforma del settore della sicurezza privata, ancora in fase di attuazione, che definisce le attività svolte dalle imprese di security, individua le caratteristiche delle imprese e fissa i parametri per la formazione del personale. Il quadro teorico del lavoro esamina i concetti di sicurezza/insicurezza urbana e di società del rischio alla luce delle teorie criminologiche legate alla prevenzione situazionale e sociale e alla community policing. La ricerca sul campo si basa sull’analisi del contenuto di diverse interviste in profondità con esponenti del mondo della sicurezza privata (imprenditori, dirigenti, studiosi). Le interviste hanno fatto emergere che il ruolo della sicurezza privata in Italia risulta fortemente problematico; anche la riforma in corso sulla normativa del settore è considerata con scarso entusiasmo a causa delle difficoltà della congiuntura economica che rischia di compromettere seriamente la crescita. Il mercato della sicurezza in Italia è frastagliato e scarsamente controllato; manca un’azione di coordinamento fra le diverse anime della sicurezza (vigilanza privata, investigazione, facility/security management); persiste una condizione di subalternità e di assenza di collaborazione con il settore pubblico che rende la sicurezza privata relegata in un ruolo marginale, lontano dalle logiche di sussidiarietà.
Resumo:
La presente indagine mira ad esaminare, in chiave innovativa, i rapporti tra l’Europa ed un reato prettamente europeo: il negazionismo. Sviluppatosi in maniera assolutamente predominante nel nostro continente, le ragioni della sua diffusione sono molteplici. Al di là della lotta a razzismo ed antisemitismo, il motivo principale va identificato nel ruolo “fondativo” che riveste la memoria dell’Olocausto in Europa, collocata nel cuore dell’universo valoriale su cui si reggono i due principali attori europei, ovverosia l’Unione europea e la Corte europea dei diritti dell’uomo. La ricerca, dunque, ruota attorno a due poli tematici. Da un lato, sono state esaminate le politiche normative dell’Unione europea in materia di razzismo e xenofobia, entro cui spicca la promozione dell’incriminazione del negazionismo “allargato”, cioè esteso alle condotte di negazione non solo dell’Olocausto, ma anche degli altri crimini internazionali. Dall’altro lato, l’analisi della trentennale giurisprudenza della Corte di Strasburgo in materia ha evidenziato come, con riguardo alle manifestazioni negazioniste, sia stato elaborato uno “statuto speciale”, che si risolve nel perentorio diniego di tutela per questa categoria di opinioni, sottratte a monte all’ordinario giudizio di bilanciamento in quanto giudicate incompatibili con i valori sottesi alla CEDU. Lo scopo di questo lavoro riposa nel tentativo di individuare le interazioni tra questi due sistemi istituzionali, per interpretare una tendenza che converge con nettezza verso un incremento della repressione penale della parola. Da questo complesso intreccio di norme e principi, di hard law e soft law, sarà possibile enucleare la natura giuridica ed il contenuto delle richieste di incriminazione rivolte agli Stati membri. Una volta appurato che agli Stati è concesso di restringere il campo di applicazione del reato di negazionismo, adottando degli indici di pericolosità delle condotte, sarà analizzata la tenuta di questi “elementi opzionali del reato” alla luce dei principi penalistici di tassatività, materialità, offensività e laicità.
Resumo:
L’approccio performance-based nell’Ingegneria sismica è una metodologia di progetto che tiene esplicitamente in conto la performance dell’edificio tra i criteri progettuali. Nell’ambito dei metodi PBEE (Performance-Based Earthquake Engineering) di seconda generazione, quello proposto dal PEER (Pacific Earthquake Engineering Research Center) risulta essere il più diffuso. In esso la performance dell’edificio oggetto di studio viene valutata in termini quantitativi secondo le 3D’s (dollars, deaths, downtime – soldi, decessi, inutilizzo), quantità di notevole interesse per l’utente finale. Il metodo si compone di quattro step, indipendenti tra loro fino alla sintesi finale. Essi sono: l’analisi di pericolosità, l’analisi strutturale, l’analisi di danno, l’analisi delle perdite o di loss. Il risultato finale è la curva di loss, che assegna ad ogni possibile perdita economica conseguente all’evento sismico una probabilità di superamento nell’arco temporale di riferimento. Dopo la presentazione del metodo PEER, si è provveduto ad una sua applicazione su di un caso di studio, nella fattispecie un telaio piano di quattro campate, multipiano, in calcestruzzo armato, costruito secondo le norme del ’92. Per l’analisi di pericolosità si è fatto ricorso alle mappe di pericolosità disponibili sul sito INGV, mentre per l’analisi strutturale si è utilizzato il software open-source OpenSees. Le funzioni di fragilità e quelle di loss sono state sviluppate facendo riferimento alla letteratura scientifica, in particolare il bollettino Fib numero 68 “Probabilistic performance-based seismic design”. In questa sede ci si è concentrati unicamente sulla stima delle perdite economiche, tralasciando le altre due variabili decisionali. Al termine del procedimento si è svolta un’analisi di sensitività per indagare quali parametri influenzino maggiormente la curva di loss. Data la curva di pericolosità, il legame EDP(IM) e la deformazione ultima a collasso risultano essere i più rilevanti sul risultato dell’analisi.
Resumo:
Lo studio è stato condotto seguendo una duplice prospettiva, che trae spunto da alcune assimilazioni operate dalla giurisprudenza italiana. Da un lato, si è cercato di capire come debbano essere interpretate norme create per la valutazione di realtà storicamente ben identificate, quali l’art. 416 bis c.p., nel momento in cui si applicano a realtà nuove, come le mafie straniere. Dall’altro lato, si è cercato di indagare i fondamenti dell’equiparazione dell’impresa che delinque al paradigma dell’associazione per delinquere, punita dall’art. 416 c.p., allorchè imprese formalmente lecite si trovano a operare per fini esclusivamente illeciti, facendo della organizzazione imprenditoriale una vera e propria organizzazione criminale. Gli obiettivi posti dalla ricerca si possono sintetizzare, dunque, nella verifica dell’adattabilità di tradizionali fattispecie criminose al nuovo contesto criminologico e nell’individuazione del confine tra l’azione occasionalmente illecita di una impresa lecita e la connotazione di una impresa come illecita tout court.
Resumo:
Il percorso sui Frammenti di Erodoto è cronologico. L'introduzione presenta criteri di lavoro, un esempio di studio sul Proemio delle Storie e la struttura generale. Per ogni momento è preso in considerazione un fenomeno particolare con un esempio. Il primo caso è contemporaneo ad Erodoto. Si tratta di un test che riguarda la criticità di alcuni concetti chiave tradizionali: intertestualità e riferimenti letterali. Il secondo capitolo è uno studio sulla storiografica di IV secolo a.C., periodo di fioritura e determinazione delle norme del genere. Qui si mettono in luce la criticità dei frammenti multipli aprendo in questo modo ampie possibilità di ricerca. Il capitolo successivo, sulla tradizione papiracea mostra il passaggio storico tra la tradizione indiretta a la tradizione manoscritta e permette uno sguardo all'epoca alessandrina. Include un catalogo ed alcuni aggiornamenti. Il capitolo quinto pone invece problemi tradizionali di trasmissione delle tradizioni storiche affrontando lo studio di FGrHist 104, testo che permette di osservare passaggi della storiografia di quinto e quarto secolo avanti Cristo. I due capitoli sulle immagini e sul Rinascimento, paralleli per quanto riguarda i riferimenti cronologici, offrono un ponte per passare dal discorso storiografico a quello in cui la consapevolezza di Erodoto è già maturata come parte della ”cultura”. Alto Medioevo, Umanesimo e Rinascimento offrono spazio a storie delle Storie che iniziano ad essere quasi di ricezione di Erodoto. Questo tema è l'oggetto dei due capitoli finali, studi legati alla presenza o assenza di Erodoto in discipline e pensieri moderni e contemporanei: il pensiero di genere e l’analisi conversazionale. Le appendici completano soprattutto il capitolo su Aristodemo con uno studio sul codice che lo trasmette, il papiro P.Oxy 2469 e il testo stesso, con traduzione e commento storico. Il lavoro si completa con una premessa, una bibliografia strutturata e indici di persone e passi citati.
Resumo:
I tre capitoli in cui è suddiviso il lavoro cercano di offrire una ricognizione delle questioni che ruotano intorno alla sussistenza o meno di prerogative presidenziali riguardo l’attività legislativa, e in generale sulle eventuali trasformazioni avvenute, soprattutto negli ultimi anni, nel ruolo del Presidente della Repubblica all’interno del sistema costituzionale italiano. Il lavoro esordisce con una premessa metodologica con cui si tenta di valorizzare la questione relativa ai diversi approcci metodologici che si possono seguire nello studio delle tematiche presidenziali: ossia, tenere nettamente distinti il piano delle norme da quello delle prassi oppure analizzarli e valutarli congiuntamente. Il primo capitolo è dedicato all’analisi della figura presidenziale così come delineata dalla Costituzione e arricchita dagli oltre sessant’anni di letteratura costituzionale. Vengono quindi analizzate le disposizioni costituzionali di riferimento e viene dato conto delle principali teorie costituzionali espresse dalla letteratura giuridica. Il secondo capitolo è dedicato a quella che viene offerta come una delle possibili cause da cui traggono origine le evoluzioni registrate in questi ultimi anni dalla figura presidenziale: ossia, il mutamento del sistema costituzionale di rappresentanza politica. Tale elemento è analizzato soprattutto nel suo ambito istituzionale, vale a dire il modello di forma di governo rappresentato dal circuito parlamento-governo. Il terzo capitolo entra direttamente nelle due questioni di fondo della ricerca: da un lato lo studio della generale attività presidenziale di intervento nelle questioni politiche, attraverso comunicati o esternazioni; dall’altro lato l’analisi di alcuni specifici casi paradigmatici di intervento presidenziale in sede di emanazione o promulgazione (o, comunque, discussione) degli atti legislativi del governo e del parlamento, accaduti tra il 2006 e il 2013. Inoltre, il lavoro è arricchito da una importante sezione (allegata) di “case studies” contenente il risultato di una ricerca effettuata su oltre tremila documenti presidenziali, dal 2006 al 2013, resi pubblici dagli uffici del Quirinale.
Resumo:
Il monitoraggio dei rilasci può essere indoor o outdoor; l’attenzione del presente lavoro è rivolta a sistemi di monitoraggio di gas infiammabili e/o tossici in ambienti esterni di stabilimenti onshore. L’efficacia dei sistemi di Gas Detection è profondamente influenzata dalla disposizione dei sensori nelle aree di rischio. Esistono codici e standard che forniscono informazioni molto dettagliate per la progettazione dei sistemi di Fire Detection e linee guida per la scelta, l’installazione ed il posizionamento ottimale dei sensori di incendio. La stessa affermazione non si può fare per i sistemi di Gas Detection, nonostante dall’individuazione tempestiva di un rilascio dipendano anche le successive azioni antincendio. I primi tentativi di sviluppare linee guida per il posizionamento dei sensori di gas sono stati effettuati per le applicazioni off-shore, dove l’elevato livello di congestione e il valore delle apparecchiature utilizzate richiedono un efficiente sistema di monitoraggio dei rilasci. Per quanto riguarda gli impianti on-shore, i criteri di posizionamento dei rilevatori di gas non sono ufficialmente ed univocamente definiti: il layout dei gas detectors viene in genere stabilito seguendo criteri di sicurezza interni alle compagnie affiancati da norme di “buona tecnica” e regole empiriche. Infatti, nonostante sia impossibile garantire l’individuazione di ogni rilascio, vi sono linee guida che propongono strategie di posizionamento dei gas detectors in grado di massimizzare la probabilità di successo del sistema di monitoraggio. Il presente lavoro è finalizzato alla verifica del corretto posizionamento dei gas detectors installati presso l’impianto pilota SF2 dello stabilimento Basell Poliolefine Italia di Ferrara.
Resumo:
L’elaborato si propone di analizzare il ruolo di CONSIP, centrale di committenza nazionale per gli acquisti di beni e servizi per la pubblica amministrazione, nell’ambito del Programma di razionalizzazione degli acquisti, con particolare attenzione ai vantaggi ed alle criticità emerse nell’attuazione del sistema di centralizzazione. Il corpo del testo, articolato per capitoli, è preceduto da un Glossario contenente le definizioni e la specificazione di alcuni dei concetti trattati. In appendice sono state inserite le sintesi di tre ricerche, ritenute di interesse per approfondire l’argomento trattato. Il Capitolo 1 descrive l’evoluzione del ruolo e delle attività assegnate a CONSIP in relazione alle modifiche intervenute nel contesto normativo di riferimento. Nel Capitolo 2 vengono trattate in dettaglio le attività di CONSIP, con particolare riguardo al ruolo strategico che la stessa è chiamata a svolgere nel sistema nazionale di e-Procurement e nell’ambito del Programma di razionalizzazione degli acquisti, anche in funzione delle misure previste dalle recenti norme in tema di spending review. Nel Capitolo 3 sono descritti gli strumenti che CONSIP mette a disposizione delle pubbliche amministrazioni, attraverso la piattaforma informatica www.acquistinretepa.it, appositamente predisposta per l’attuazione del Programma di cui al Capitolo precedente, con particolare attenzione al sistema delle convenzioni. Il Capitolo 4 è dedicato all’analisi dei vantaggi e delle criticità riguardanti l’attuazione del Programma di razionalizzazione degli acquisti, con riferimento al sistema di centralizzazione ed all’utilizzo degli strumenti CONSIP, nell’ambito del processo di approvvigionamento delle pubbliche amministrazioni (public procurement). Infine, il Capitolo 5 propone l’esperienza del Progetto di razionalizzazione degli acquisti informatici del Comune di Bologna come caso da cui trarre spunti di riflessione sull’impatto, anche interno, alla singola amministrazione, della centralizzazione degli acquisti e dell’utilizzo delle convenzioni e del mercato elettronico (MEPA) messi a disposizione da CONSIP.
Resumo:
Il traffico dei veicoli sulla rete stradale è un fenomeno molto vario e complesso ma cresce sempre di più l'esigenza di monitoraggio e controllo. La difficoltà di studio secondo norme codificate porta a risultati diversi e disomogenei, si è quindi resa necessaria l'esigenza di definire una metodologia standardizzata agli analisti e operatori del settore. Lo scopo principale di questo tipo di analisi è quello di innalzare il livello di sicurezza stradale, creando degli archivi sulla base dei dati registrati dal sistema, per fare ciò vi è stata la necessità di: 1. Istallare dispositivi di rilevamento del flusso veicolare per trovare i punti di maggiore congestione del traffico. 2. Istallare dispositivi per misurare la quantità di agenti atmosferici e acustici inquinanti. Lo studio in questione nasce inoltre da ulteriori esigenze, sia da parte degli addetti alla sicurezza stradale, che dagli stessi utenti/automobilisti per rispondere a determinate esigenze quali: • Regolazione del traffico stradale • Conoscenza globale delle strade • Rilevamento di infrazioni • Assistenza agli utenti • Sicurezza delle infrastrutture stradali (gallerie, passaggi a livello, ecc.) • Manutenzione della strada • Studio e ricerca Oltre ai sistemi che hanno come scopo principale la sicurezza, è nata l'esigenza di progettare sistemi utili agli automobilisti per avere informazioni immediate, aggiornate e per conoscere in tempo reale le condizioni di scorrevolezza delle strade e quindi di risparmiare risorse in termini di tempo e carburante ed aumentare la coordinazione tra i veicoli. Il requisito fondamentale dei sistemi basati su questo tipo di funzionalità è quello di registrare in tempo reale le segnalazioni pervenute e di renderle immediatamente disponibili a tutti gli utenti/utilizzatori del sistema allo scopo di avere informazioni rilevanti riguardanti lo stato del traffico che consentano a questi ultimi di effettuare la scelta ottimale e quindi migliorare la mobilità generale in termini di riduzione della congestione, risparmio di consumi energetici e di conseguenza di emissioni di inquinanti ambientali. I sistemi di questo tipo possono essere definiti adattivi, cioè in grado di modificarsi in base a condizioni esterne al fine di coordinare efficacemente il flusso veicolare. Lo scopo di questi software è sopratutto funzionale, stimando infatti i tempi di percorrenza in determinate strade gli utenti avranno piena consapevolezza delle condizioni di quei segmenti quasi istantaneamente e potranno quindi agire di conseguenza in modo da migliorare i tempi di percorrenza.
Resumo:
Descrizione dei vantaggi della tecnologia delle fondazioni da pozzo per le pile da ponte. Analisi dei carichi di un viadotto esistente a struttura mista e studio agli stati limite delle più svantaggiose condizioni di carico. Analisi sismica della pila. Progetto e verifica della pila, del plinto e del pozzo nelle diverse fasi di realizzazione e per le combinazioni di carico considerate. Verifiche del terreno, con riferimento ai criteri di dimensionamento del Prof. Jamiolkowski. Analisi tenso-deformativa del terreno con software Plaxis2D e Midas-GTS (3D). Confronti fra il metodo analitico adottato nelle verifiche ed i risultati numerici. Norme di riferimento: NTC2008, Istruzione N°I/SC/PS-OM/2298, Ordinanza 3274 come modificato dall'OPCM 3431