1000 resultados para Condizioni rischio idraulico Ravenna
Resumo:
Il problema che si cerca di risolvere attraverso la gestione quantitativa del portafoglio è la riduzione del rischio tramite strategie che non dipendano dalla diversificazione dei titoli che compongono il portafoglio. Nel momento in cui si decide di applicare un trading system su un determinato gruppo di asset, il capitale non viene allocato automaticamente su tutti i titoli e si deve affrontare invece un continuo investimento tramite l’apertura dinamica di posizioni sul mercato.Questo significa che la diversificazione non è più una misura adeguata del rischio sostenuto poiché i rendimenti attesi dell’investimento non dipendono più dalle proprietà stesse degli strumenti scelti, ma dalla profittabilità dei segnali generati dalla logica del trading system su questi. Bisogna testare in questo caso le performance del sistema a livello statistico e prevedere anche, per esempio, che l’algoritmo possa generare dei segnali errati che portano a delle posizioni in perdita. Il portafoglio a livello quantitativo deve essere gestito tramite dei trading system che abbiano la possibilità di valutare aspetti globali, come il profitto totale di tutte le posizioni attualmente aperte, o l’intero rischio sostenuto dal capitale gestito. Le decisioni non vengono prese dall’analisi delle prestazioni individuali che la strategia ottiene operando sui singoli titoli. Per affrontare una possibile soluzione a questa problematica si sono quindi selezionati due trading system le cui prestazioni fossero robuste su un intero portafoglio e non solo su determinati titoli. In un successivo momento vengono analizzate le prestazioni del portafoglio aggiungendo ai test due ulteriori strategie di uscita: lo stoploss di portafoglio e il target di portafoglio. Nonostante esse ricalchino idee ampiamente utilizzate per la gestione delle singole posizioni su un titolo, per i test si è deciso di modificarle implementando la gestione globale del capitale all’interno del trading system di portafoglio.
Resumo:
La terra, nel corso della sua storia, ha subito molteplici cambiamenti con la comparsa e scomparsa di numerose specie animali e vegetali. Attualmente, l’estinzioni delle specie, la riduzione degli areali e il depauperamento degli ecosistemi è da ricollegare alle attività dell’uomo. Per tali motivi, in questi ultimi decenni si è iniziato a dare importanza alla conservazione della biodiversità, alla creazione di zone protette e a sviluppare interventi di reintroduzione e rafforzamento di specie rare e a rischio di estinzione. Questo lavoro di tesi si propone di analizzare la variabilità genetica delle popolazioni di Rhododendron ferrugineum L. lungo il suo areale, con particolare attenzione alle aree marginali dell’Appennino, dove la specie rappresenta un caso di pseudo rarità, al fine di valutare lo stato di salute della specie al limite del suo areale e valutare appropriati interventi di conservazione o reintroduzione. Per effettuare le analisi sono stati messi a punto dei marcatori molecolari discontinui, i microsatelliti, che, essendo dei marcatori co-dominati, permettono di valutare differenti parametri legati alla diversità genetica delle popolazioni inclusi i livelli di eterozigotà ed il flusso genico tra popolazioni limitrofe. I campionamenti sono stati effettuati nelle uniche 3 stazioni presenti sugli Appennini. Al fine di confrontare la struttura genetica di queste popolazioni sono state considerate anche popolazioni delle Alpi Marittime, delle Alpi centro-orientali e dei Pirenei. L’analisi della diversità genetica effettuata su questo pool di popolazioni analizzate con 7 marcatori microsatelliti, ha messo in evidenza che le popolazioni relitte dell’Appennino Tosco-Emiliano presentano un ridotto livello di eterozigosità che suggerisce quindi un elevato livello di inbreeding. Si ritiene che ciò sia dovuto alla loro dislocazione sul territorio, che le rende isolate sia tra di loro che dalle popolazioni delle vicine Alpi Marittime. La stima delle relazioni genetiche tra le popolazioni appenniniche e le vicine piante alpine evidenzia come non vi sia scambio genetico tra le popolazioni. Le analisi dei cluster suggeriscono che due delle popolazioni Appenniniche siano più simili alle popolazioni della Alpi Marittime, mentre la terza ha più affinità con le popolazioni delle Alpi centro-orientali. Le popolazioni dei Pirenei risultano essere geneticamente più simili alle popolazioni delle Alpi Marittime, in particolare alle tre popolazioni del versante francese. In questo lavoro abbiamo affrontato anche il problema delle specie ibride. Rhododendron x intermedium Tausch è un ibrido frutto dell’incrocio tra Rhododendron ferrugineum L. e Rhododendron hirsutum L., in grado di incrociarsi sia con altri ibridi, sia con i parentali (fenomeno dell’introgressione). L’origine di questo ibrido risiede nella simpatria delle due specie parentali, che tuttavia, presentano esigenze ecologiche differenti. Ad oggi la presenza di Rhododendron x intermedium è stata accertata in almeno tre stazioni sulle Alpi Italiane, ma la letteratura documenta la sua presenza anche in altre zone dell’Arco Alpino. L’obiettivo di questa ricerca è stato quello di verificare la reale natura ibrida di Rhododendron x intermedium in queste stazioni utilizzando un approccio integrato ossia sia attraverso un’analisi di tipo morfologico sia attraverso un analisi di tipo molecolare. In particolare l’approccio molecolare ha previsto prima un’analisi filogenetica attraverso l’utilizzo di marcatori molecolari filogenetici nucleari e plastidiali (ITS, At103, psbA-trnH e matK) e quindi un’analisi della struttura delle popolazioni della specie ibrida attraverso l’utilizzo di marcatori molecolari microsatelliti. Da un’analisi morfologica, risulta che gli esemplari ibridi possono essere molto differenti tra loro e ciò supporta la formazione di sciami ibridi. Al fine di verificare la natura di questa specie e la struttura delle popolazioni ibride e dei rispettivi parentali, sono state campionate differenti popolazioni in tutta l’area di interesse. I campioni ottenuti sono stati quindi analizzati geneticamente mediante marcatori molecolari del DNA. I risultati ottenuti hanno permesso innanzitutto di confermare l’origine ibrida degli individui di prima generazione della specie Rhododendron x intermedium e quindi di distinguere i parentali dagli ibridi ed evidenziare la struttura genetica delle popolazioni ibride.
Resumo:
L’attività assicurativa svolge un ruolo cruciale nell’economia moderna: riduce le inefficienze di mercato, rendendo possibile per la c.d. economia reale il trasferimento di rischi il cui impatto potrebbe essere devastante qualora l’evento assicurato si verificasse. Questa funzione può naturalmente essere svolta anche in assenza di un canale distributivo indipendente, ma con un significativo aumento dei costi di transazione dovuti, in particolare, a un alto impatto dell’asimmetria informativa per i c.d. rischi non standardizzabili (c.d. commercial lines o business insurance). Tale funzione è tanto più importante nei c.d. cicli di hard market, in cui l’appetito per il rischio delle imprese assicuratrici diminuisce, il prezzo delle coperture aumenta e per le imprese diventa arduo trovare eque coperture sul mercato d’offerta. Lo studio evidenzia che gli intermediari indipendenti italiani non differiscono molto da quelli di altri Paesi per composizione di portafoglio, propensione all’intermediazione di rischi afferenti al segmento Aziende e capacità di selezionare con attenzione i rischi. Nel loro complesso, intermediari indipendenti e in esclusiva sembrano ancorati a modelli e logiche di sviluppo poco orientate al futuro, quali ad esempio poco significative politiche di costruzione di reti secondarie al loro interno. Questo orientamento impedisce a molti di loro di crescere. Le cause ostative alla diffusione del plurimandato sono i costi di transazione e i timori di ritorsione della mandante principale. Dato che l’acquisizione di ulteriori mandati dipende dal numero di clienti in portafoglio in termini di policy sarebbe opportuno, da un lato, riconoscere agli intermediari l’importanza degli investimenti in reti secondarie e, dall’altro, rimuovere tutte gli ostacoli (prevalentemente di natura regolamentare) che impediscono un’ulteriore riduzione dei costi di transazione.
Resumo:
Negli ultimi decenni il concetto di variabile latente ha riscosso un enorme successo nelle discipline statistiche come attestano i numerosi lavori scientifici presenti in letteratura. In particolare, nelle scienze sociali e in psicometria, l’uso del concetto di variabile latente è stato largamente adottato per far fronte al problema di misurare quantità che, in natura, non possono essere direttamente osservate. La vasta letteratura riguardante questa metodologia si espande, in maniera più limitata, anche al campo della ricerca economica ed econometrica. Nonostante esistano studi di modelli a struttura latente applicati a variabili di tipo economico, molto pochi sono i lavori che considerano variabili finanziarie e, finora, praticamente nessun ricercatore ha messo in connessione la teoria standard di portafoglio con la metodologia dei modelli statistici a variabili latenti. L’obiettivo del lavoro è quello di ricorrere alle potenzialità esplicative ed investigative dei metodi statistici a variabili latenti per l’analisi dei fenomeni finanziari. Si fa riferimento, in particolare, ai modelli a classe latente che consentono di sviluppare soluzioni metodologicamente corrette per importanti problemi ancora aperti in campo finanziario. In primo luogo, la natura stessa delle variabili finanziarie è riconducibile al paradigma delle variabili latenti. Infatti, variabili come il rischio ed il rendimento atteso non possono essere misurate direttamente e necessitano di approssimazioni per valutarne l’entità. Tuttavia, trascurare la natura non osservabile delle variabili finanziarie può portare a decisioni di investimento inopportune o, talvolta, addirittura disastrose. Secondariamente, vengono prese in considerazione le capacità dei modelli a classi latenti nel contesto della classificazione. Per i prodotti finanziari, infatti, una corretta classificazione sulla base del profilo (latente) di rischio e rendimento rappresenta il presupposto indispensabile per poter sviluppare efficaci strategie di investimento. Ci si propone, inoltre, di sviluppare un collegamento, finora mancante, tra uno dei principali riferimenti della finanza moderna, la teoria classica del portafoglio di Markowitz, e la metodologia statistica dei modelli a variabili latenti. In questo contesto, si vogliono investigare, in particolare, i benefici che i modelli a variabili latenti possono dare allo studio di ottimizzazione del profilo rischio - rendimento atteso di un portafoglio di attività finanziarie. Lo sviluppo di numeri indici dei prezzi delle attività finanziarie caratterizzati da una solida base metodologica rappresenta un ulteriore aspetto nel quale i modelli a classe latente possono svolgere un ruolo di fondamentale importanza. In particolare, si propone di analizzare il contesto dei numeri indici dei prezzi settoriali, che costituiscono uno dei riferimenti più importanti nelle strategie di diversificazione del rischio. Infine, il passaggio da una specificazione statica ad una analisi dinamica coglie aspetti metodologici di frontiera che possono essere investigati nell’ambito dei modelli markoviani a classi latenti. Il profilo latente di rischio – rendimento può essere, così, investigato in riferimento alle diverse fasi dei mercati finanziari, per le quali le probabilità di transizione consentono valutazioni di tipo previsivo di forte interesse.
Resumo:
L'elaborato considera anzitutto la genesi dell'istituto, e con chiarezza analizza il percorso di affioramento della figura del distacco nell'impiego pubblico rimarcando affinità e differenze con ipotesi similari di temporanea dissociazione tra datore di lavoro e fruitore della prestazione. Nell'operare gli opportuni distinguo, il dott. Tortini si confronta con la fattispecie tipica del lavoro subordinato e con il divieto di dissociazione che ad essa sarebbe sotteso, anche alla luce della legge 1369 del 1960 sul divieto di interposizione. Gli elementi caratterizzanti il distacco sono poi esposti analizzando con acutezza i più rilevanti orientamenti emersi nella giurisprudenza di merito e di legittimità , in specie con riguardo alla prassi invalsa nei gruppi di società di dirigere la prestazione di lavoro a favore di società collegate o controllate dalla società datrice di lavoro. In tal senso l'elaborato prende posizione in ordine alla necessaria temporaneità dell'interesse del distaccante, nonchè all'inclusione del distacco nell'ambito del potere direttivo-organizzativo del datore di lavoro, ciò che esclude la necessità del consenso del lavoratore distaccato. Nel secondo capitolo il dott. Tortini si confronta con il quadro delle libertà fondamentali del diritto comunitario, ed in particolare con la libera prestazione di servizi, analizzando profili essenziali quali la natura autonoma, la transnazionalità e la temporaneità del servizio prestato. Con ampi riferimenti alla dottrina, anche comparata, in argomento, il capitolo delinea le possibili forme di interazione tra gli ordinamenti nazionali all'interno dell'Unione europea ed individua, in alternativa, tre modelli di coordinamento tra le esigenze liberalizzanti tipiche del mercato unico e le prerogative nazionali di tipo protezionistico che si manifestano qualora un servizio venga prestato in uno Stato membro diverso da quello in cui ha sede il prestatore: host state control, home state control e controllo sovranazionale. L'analisi si rivela essenziale al fine di delineare le ragioni della più recente giurisprudenza della Corte di giustizia in tema di appalti cross-border e libera circolazione dei lavoratori, e dimostra un sostanziale "slittamento" della base giuridica mediante la quale il diritto comunitario regola il fenomeno della prestazione di lavoro transnazionale, dall'art. 39 all'art. 49 TCE. Il terzo capitolo confronta l'impianto teorico ricavabile dai principi del Trattato con la Direttiva 96/71 sul distacco ed i relativi provvedimenti attuativi (d.lgs. n. 72/2000 e art. 30, d.lgs. n. 276/2003). In particolare, vengono analizzate le ipotesi limitrofe alla nozione di distacco ricavabile dal diritto comunitario, accomunate dalla dissociazione tra datore di lavoro ed utilizzatore della prestazione, ma distinguibili in base alla natura del rapporto contrattuale tra impresa distaccante ed impresa distaccataria. La funzione principale della Direttiva comunitaria in argomento viene individuata dal dott. Tortini nella predisposizione di una base inderogabile di diritti che devono essere, in ogni caso, assicurati al lavoratore oggetto del distacco. Questa base, denominata hard core della tutela, deve essere garantita, all'interno del singolo Stato membro, dalla contrattazione collettiva. Nell'ordinamento italiano, la disciplina del distacco contenuta nella Direttiva viene attuata con il d.lgs. n. 72/2000 che, come opportunamente segnalato dal dott. Tortini, contiene una serie di incongruenze e di lacune. Fra tutte, si rimarca come la stessa Commissione abbia rilevato uno scostamento tra le due discipline, dato che la legge italiana estende surrettiziamente ai lavoratori distaccati tutte le disposizioni legislative e/o i contratti collettivi che disciplinano le condizioni di lavoro, operazione non consentita dal la Direttiva 76/91. E' in specie il riferimento al contratto collettivo stipulato dalle organizzazioni comparativamente più rappresentative ad essere criticato dall'elaborato, in quanto finisce con il trasformare l'art. 3.1 del D. Lgs. 72/2000 in una discriminazione fondata sulla nazionalità e rischia di creare maggiori difficoltà e più oneri per gli imprenditori stranieri che intendano erogare servizi sul territorio nazionale. A conclusione della tesi, il dott. Tortini esamina la nozione di distacco introdotta ad opera dell'art. 30, d.lgs. n. 276/2003, ed enuclea gli elementi caratterizzanti dell'istituto, individuati nell'interesse del distaccante e nella temporaneità dell'assegnazione, definita «l'in sè» dell'interesse stesso.
Resumo:
Lo sviluppo della medicina ha determinato un utilizzo sempre crescente di sostanze farmacologiche, le quali una volta escrete dagli organismi raggiungono le acque dei fiumi e dei laghi, per arrivare poi all’ambiente marino costiero, che ne risulta sempre maggiormente contaminato. Negli organismi non bersaglio esposti ai residui dei farmaci in ambiente, queste sostanze potrebbero indurre effetti simili a quelli specifici nel caso i bersagli molecolari siano stati conservati durante l’evoluzione, oppure avere effetti inattesi se i bersagli molecolari sono conservati ma hanno una differente funzione. Questo lavoro di tesi è volto a studiare i potenziali effetti indotti dalla fluoxetina (FX, farmaco antidepressivo inibitore dell’uptake della serotonina), e dal propranololo (PROP, farmaco bloccante sia dei recettori β-adrenergici che serotoninergici nell’uomo) nei mitili Mytilus galloprovincialis, esposti a tali sostanze, valutandone l’interazione con i meccanismi di trasduzione del segnale AMPc-dipendente. Sono stati valutati in particolare i livelli di AMPc e l’attività dell’enzima PKA, inoltre si è studiato se i farmaci influiscano con i meccanismi di regolazione del gene ABCB1, che codifica per la P-glicoproteina (Pgp), che ha il compito di estrudere all’esterno della cellula gli xenobiotici che vi sono entrati. Gli studi sono stati condotti dopo esposizione dei mitili in vivo ai due farmaci ed alla loro miscela per 7 giorni in acquario. I risultati hanno indicato che la FX causa una diminuzione statisticamente significativa dei livelli di AMPc, dell’attività della PKA e anche dell’espressione del gene ABCB1 rispetto al controllo, sia nel mantello che nella ghiandola digestiva. Nella ghiandola digestiva il PROP provoca una significativa riduzione dei livelli di AMPc, dell’attività della PKA e dell’espressione del gene ABCB1 rispetto ai valori di controllo. Nel mantello, invece, il PROP aumenta i livelli di AMPc e l’espressione del gene ABCB1, anche se non ha effetti significativi sull’attività della PKA. Per caratterizzare i recettori per la serotonina (5HT), e il possibile ruolo di antagonista giocato dal PROP, abbiamo inoltre trattato in vitro emociti di mitilo con la 5HT l’agonista fisiologico del recettore, usata da sola ed in presenza del PROP. I dati ottenuti dimostrano che negli emociti di mitilo sono espressi recettori 5HT1 accoppiati a proteine G inibitrici, e che il PROP blocca l’effetto della 5HT, agendo come antagonista dei recettori 5HT1. Nell’insieme i dati dimostrano che i farmaci possono avere effetti sugli organismi acquatici anche a concentrazioni molto basse come quelle ambientali. I dati della tesi non dimostrano che PROP e FX hanno effetti deleteri sulle popolazioni o le comunità dei molluschi, ma debbono essere considerati come indicatori della vulnerabilità degli animali a questi composti. Si è dimostrato per la prima volta che gli emociti di mitilo possiedono recettori di tipo 5HT1 correlati alla riduzione dei livelli intracellulari di AMPc, e soprattutto che il sistema AMPc/PKA è deputato alla regolazione dell’espressione dei geni ABCB1 codificanti per proteine del complesso Multi Xenobiotic Resistance.
Resumo:
L'evoluzione delle tipologie architettoniche sviluppate all'interno del panorama bolognese ha portato allo sviluppo nel XVI secolo di Palazzi immersi nella campagna rispondenti ai canoni dei principi rinascimentali di armonia fra l'uomo e la Natura. E' in questo contesto che si sviluppa il Palazzo Angelelli-Zambeccari, il cui nucleo risale alla fine del XVI secolo e che si è costituito successivamente come importante tenuta agricola. La proprietà del Palazzo va attribuita in un primo momento alla Famiglia Senatoria Angelelli, che apporta le principali modifiche costruttive, quali le due ali simmetriche e una parte fondamentale del corpo centrale, successivamente alla Famiglia Zambeccari, che si occupa di sistemazioni interne e della struttura della tenuta. Attualmente la proprietà risulta essere del Comune, che cerca di svilupparla come centro propulsore del Paese. Il progetto di restauro vuole restituire all'edificio il suo carattere originale, inserendo all'interno di esso funzioni utili al Paese, come la biblioteca e i laboratori didattici, e attività legate al sostentamento stesso della proprietà, come un piccolo agriturismo e il centro di rappresentanza della Cantina Sociale del Paese. Proprio per la Cantina il progetto ha cercato di sviluppare un adeguato impianto di climatizzazione e di parametri legati alle condizioni ottimali per l'utilizzo, al fine di costruire uno spazio funzionale che possa essere testimonianza dell'attività agro-vinicola propria della tradizione della villa di campagna.
Resumo:
Con il termine Smart Grid si intende una rete urbana capillare che trasporta energia, informazione e controllo, composta da dispositivi e sistemi altamente distribuiti e cooperanti. Essa deve essere in grado di orchestrare in modo intelligente le azioni di tutti gli utenti e dispositivi connessi al fine di distribuire energia in modo sicuro, efficiente e sostenibile. Questo connubio fra ICT ed Energia viene comunemente identificato anche con il termine Smart Metering, o Internet of Energy. La crescente domanda di energia e l’assoluta necessità di ridurre gli impatti ambientali (pacchetto clima energia 20-20-20 [9]), ha creato una convergenza di interessi scientifici, industriali e politici sul tema di come le tecnologie ICT possano abilitare un processo di trasformazione strutturale di ogni fase del ciclo energetico: dalla generazione fino all’accumulo, al trasporto, alla distribuzione, alla vendita e, non ultimo, il consumo intelligente di energia. Tutti i dispositivi connessi, diventeranno parte attiva di un ciclo di controllo esteso alle grandi centrali di generazione così come ai comportamenti dei singoli utenti, agli elettrodomestici di casa, alle auto elettriche e ai sistemi di micro-generazione diffusa. La Smart Grid dovrà quindi appoggiarsi su una rete capillare di comunicazione che fornisca non solo la connettività fra i dispositivi, ma anche l’abilitazione di nuovi servizi energetici a valore aggiunto. In questo scenario, la strategia di comunicazione sviluppata per lo Smart Metering dell’energia elettrica, può essere estesa anche a tutte le applicazioni di telerilevamento e gestione, come nuovi contatori dell’acqua e del gas intelligenti, gestione dei rifiuti, monitoraggio dell’inquinamento dell’aria, monitoraggio del rumore acustico stradale, controllo continuo del sistema di illuminazione pubblico, sistemi di gestione dei parcheggi cittadini, monitoraggio del servizio di noleggio delle biciclette, ecc. Tutto ciò si prevede possa contribuire alla progettazione di un unico sistema connesso, dove differenti dispositivi eterogenei saranno collegati per mettere a disposizione un’adeguata struttura a basso costo e bassa potenza, chiamata Metropolitan Mesh Machine Network (M3N) o ancora meglio Smart City. Le Smart Cities dovranno a loro volta diventare reti attive, in grado di reagire agli eventi esterni e perseguire obiettivi di efficienza in modo autonomo e in tempo reale. Anche per esse è richiesta l’introduzione di smart meter, connessi ad una rete di comunicazione broadband e in grado di gestire un flusso di monitoraggio e controllo bi-direzionale esteso a tutti gli apparati connessi alla rete elettrica (ma anche del gas, acqua, ecc). La M3N, è un’estensione delle wireless mesh network (WMN). Esse rappresentano una tecnologia fortemente attesa che giocherà un ruolo molto importante nelle futura generazione di reti wireless. Una WMN è una rete di telecomunicazione basata su nodi radio in cui ci sono minimo due percorsi che mettono in comunicazione due nodi. E’ un tipo di rete robusta e che offre ridondanza. Quando un nodo non è più attivo, tutti i rimanenti possono ancora comunicare tra di loro, direttamente o passando da uno o più nodi intermedi. Le WMN rappresentano una tipologia di rete fondamentale nel continuo sviluppo delle reti radio che denota la divergenza dalle tradizionali reti wireless basate su un sistema centralizzato come le reti cellulari e le WLAN (Wireless Local Area Network). Analogamente a quanto successo per le reti di telecomunicazione fisse, in cui si è passati, dalla fine degli anni ’60 ai primi anni ’70, ad introdurre schemi di rete distribuite che si sono evolute e man mano preso campo come Internet, le M3N promettono di essere il futuro delle reti wireless “smart”. Il primo vantaggio che una WMN presenta è inerente alla tolleranza alla caduta di nodi della rete stessa. Diversamente da quanto accade per una rete cellulare, in cui la caduta di una Base Station significa la perdita di servizio per una vasta area geografica, le WMN sono provviste di un’alta tolleranza alle cadute, anche quando i nodi a cadere sono più di uno. L'obbiettivo di questa tesi è quello di valutare le prestazioni, in termini di connettività e throughput, di una M3N al variare di alcuni parametri, quali l’architettura di rete, le tecnologie utilizzabili (quindi al variare della potenza, frequenza, Building Penetration Loss…ecc) e per diverse condizioni di connettività (cioè per diversi casi di propagazione e densità abitativa). Attraverso l’uso di Matlab, è stato quindi progettato e sviluppato un simulatore, che riproduce le caratteristiche di una generica M3N e funge da strumento di valutazione delle performance della stessa. Il lavoro è stato svolto presso i laboratori del DEIS di Villa Grifone in collaborazione con la FUB (Fondazione Ugo Bordoni).
Resumo:
“Perdita di fase tra il gruppo riempimento polvere/cronoidi con LVDT ed il gruppo piattello durante la fase di arresto a causa della mancanza imprevista di corrente elettrica”. La perdita della fase tra differenti gruppi può avvenire per due ragioni: 1) a causa della cedevolezza di alcuni elementi della catena cinematica 2) per problemi relativi al software che comanda gli assi elettronici e che è responsabile del movimento coordinato dei vari gruppi. La prima ipotesi è molto improbabile in macchine come l’ADAPTA, dove non sono presenti elementi cinematici con elevata cedevolezza (come ad esempio delle cinghie) essendo i movimenti guidati da camme scanalate (che, contrariamente, sono molto rigide) e/o da camme elettriche (motori Brushless). Il secondo caso invece avviene ogni volta che viene a mancare la corrente elettrica in maniera accidentale (ad esempio a causa di un black-out). La mancanza di energia elettrica impedisce al computer a bordo macchina di continuare a monitorare e controllare il funzionamento dei vari assi elettronici della macchina, che sono comandati da motori brushless, che quindi continuano per inerzia il loro moto fino a fermarsi. Siccome ogni gruppo ha un’inerzia e una velocità/accelerazione istantanea diversa e variabile in funzione della posizione assunta all’interno del proprio ciclo nel momento della mancanza di corrente elettrica, i tempi di arresto risultano differenti, e questo causa la perdita di fase. I gruppi riempimento polvere/cronoidi e spingitori fondelli presentano interferenza meccanica col gruppo piattello per una certa durata del suo ciclo; in questa fase gli elementi entrano nelle boccole porta fondelli delle slitte mobili del piattello. È l’unico caso in tutta la macchina in cui parti meccaniche di gruppi diversi, vanno a “intersecare” i propri spostamenti. La progettazione di macchine che presentano interferenze di questo genere è generalmente sconsigliabile poiché si potrebbe presentare il rischio di uno scontro nel caso avvenga una perdita di fase tra i gruppi. Si sono cercate diverse soluzioni mirate a evitare un urto, derivato dall’interferenza meccanica, in caso di black-out oppure di ridurre il più possibile i danni che questa casualità può portare alla macchina. Il gruppo piattello è definito master rispetto a tutti gli altri gruppi; ha un’inerzia molto piccola e questo fa si che, in caso di black-out, il suo arresto avvenga praticamente istantaneamente, al contrario di ciò che avviene per tutti gli altri gruppi slave dotati di inerzia maggiore. Siccome l’arresto del piattello è istantaneo, il pericolo per tastatori e punzoni sollevatori di urto può avvenire solamente per compenetrazione: se gli elementi sono già all’interno della boccola, e restando fermo il piattello, l’inerzia del gruppo che fa proseguire il moto per alcuni istanti non farebbe altro che portarli fuori dalla boccola, non provocando alcun danno. Non vi è perciò il pericolo di “taglio” di questi elementi da parte del piattello. Perciò l’unica possibilità è che il black-out avvenga in un istante del ciclo dove gli elementi si stanno muovendo per entrare nelle boccole mentre anche il piattello è in rotazione.
Resumo:
Obiettivo del presente lavoro è approntare un’analisi interpretativa dell’operatività dalle Finanziarie regionali, valutarne gli investimenti in capitale di rischio e, in particolare, l’attività di private equity, evidenziando le tendenze in atto, i possibili percorsi evolutivi e le eventuali criticità. La metodologia adottata ha previsto un’articolazione del lavoro lungo due principali direttive: un’analisi di tipo quantitativo sui bilanci di sette esercizi (dal 2002 al 2008), con la finalità di indagare nel dettaglio gli aspetti economici, finanziari e patrimoniali delle Finanziarie regionali attive sul territorio italiano; un’analisi qualitativa basata su un’approfondita rassegna della letteratura internazionale e su interviste mirate ad un campione ampiamente rappresentativo della popolazione osservata. I risultati raggiunti fanno ragionevolmente supporre che sia in atto una profonda ristrutturazione dell’intero sistema delle Finanziarie, che ha visto innanzitutto aumentare il controllo pubblico nella compagine sociale. L’indagine contabile ha permesso di identificare la presenza di due modelli di business ben differenziati: alcune Finanziarie sono orientate ad attività con forte contenuto di intermediazione finanziaria; altre invece sono focalizzate sull’attività di erogazione di servizi sia finanziari di consulenza che reali. L’investimento in capitale di rischio costituisce un attività centrale per le Finanziarie regionali; l’analisi dedicata a tali impieghi ha permesso di individuare, tra esse, alcune realtà tipiche del merchant banking, e più di frequente, del modello di holding. Complessivamente le Finanziarie campionate detengono oltre 400 partecipazioni per un valore che supera 1,7 miliardi di euro; prevalentemente concentrati su una ristretta cerchia di realtà spesso con impatto strategico sul territorio, ovvero strumentali. Segnatamente all’attività di private equity, è stato possibile rilevare come la politica d’investimento delle Finanziarie regionali sia complementare rispetto a quella mediamente espressa dal mercato domestico, anche se restano critici, anche per le Finanziarie, gli investimenti su imprese target con fatturato compreso tra 2 e 10 milioni di euro. Le evidenze circa la struttura dei contratti segnalano una parziale conformità alla best practice individuata dalla letteratura internazionale. In particolare l’uso limitato dello stage financing, la bassa partecipazione alla gestione sono le principali criticità individuate. Infine, della fase di riorganizzazione che pare interessare il sistema delle Finanziarie, si trova conferma nella percezione dei suoi operatori. Interpellati sul futuro dell’attività di investimento in capitale di rischio, hanno fornito indicazioni che consentono di concludere l’esistenza di una polarizzazione delle Finanziarie su due gruppi: da un lato quelle che implementeranno, più o meno, l’attività di private equity, dall’altro quelle che, viceversa, abbandoneranno tale strumento. La normativa sulle società a partecipazione pubblica regionale e la scarsa autonomia nella gestione delle misure affidate sono ritenute, dalle Finanziarie “interessate”, il principale fattore di freno alla loro crescita nel mercato del private equity.