137 resultados para Rischio di incidente rilevante
em AMS Tesi di Dottorato - Alm@DL - Università di Bologna
Resumo:
Introduzione L’efficacia dei chemio/radioterapici ha aumentato notevolmente l’aspettativa di vita delle pazienti oncologiche, tuttavia, questi trattamenti possono compromettere la funzionalità ovarica. La crioconservazione di tessuto ovarico, con il successivo reimpianto, ha lo scopo di preservare la fertilità delle pazienti a rischio di fallimento ovarico precoce. Scopo dello studio Definire la migliore procedura di crioconservazione e reimpianto in grado di ottenere la neovascolarizzazione del tessuto reimpiantato nel minor tempo possibile al fine di diminuire la perdita follicolare causata dall’ischemia durante la procedura. Materiali e metodi Per ciascuna paziente (3) le biopsie ovariche, sono state prelevate laparoscopicamente e crioconservate secondo il protocollo di congelamento lento/scongelamento rapido. Campioni di corticale ovarica sono stati processati per l’analisi istologica, ultrastrutturale, immuistochimica e confocale per valutare la preservazione morfologiaca del tessuto. Le fettine di corticale ovarica sono state scongelate e reimpiantate ortotopicamente (2), nelle ovaia e in due tasche peritoneali, o eterotopicamente (1), in due tasche create nel sottocute sovrapubico. Risultati Le analisi di microscopia hanno mostrato il mantenimento di una discreta morfologia dello stroma, e dei vasi criopreservati e un lieve ma non significativo danneggiamento dei follicoli scongelati. Tutte le pazienti hanno mostrato la ripresa della funzionalità endocrina rispettivamente dopo 2/4 mesi dal reimpianto. Il color-doppler, inoltre ha rivelato un significativo aumento della vascolarizzazione ovarica rispetto alla quasi totale assenza di vascolarizzazione prima del reimpianto, quando le pazienti mostravano una conclamata menopausa. Conclusioni Lo studio ha confermato la ripresa della vascolarizzazione dell’ovaio in seguito a reimpianto avascolare di fettine di corticale, senza l’impiego di fattori esogeni o meccanici aggiuntivi, in tempi concordanti con i dati della letteratura. I risultati sono incoraggianti e l’avanzare degli studi e della ricerca potranno contribuire allo sviluppo di nuove metodologie di reimpianto che possano avere un successo clinico ed una sicurezza superiori a quelle finora ottenute.
Resumo:
Introduzione. Il rapido e globale incremento dell’utilizzo dei telefoni cellulari da parte degli adolescenti e dei bambini ha generato un considerevole interesse circa i possibili effetti sulla salute dell’esposizione a campi elettromagnetici a radiofrequenza. Perciò è stato avviato lo studio internazionale caso-controllo Mobi-kids, all’interno del quale si colloca quello italiano condotto in 4 Regioni (Piemonte, Lombardia, Toscana, Emilia-Romagna). Obiettivi. Lo studio ha come obiettivo quello di valutare la stima del rischio degli effetti potenzialmente avversi di queste esposizioni sul sistema nervoso centrale nei bambini e negli adolescenti. Materiali e Metodi. La popolazione include tutte le persone di età compresa tra 10 e 24 anni residenti nelle 4 Regioni, con una diagnosi confermata di neoplasia cerebrale primitiva, diagnosticata durante il periodo di studio (3 anni). Sono stati selezionati due controlli - ospedalizzati per appendicite acuta - per ciascun caso. I controlli sono stati appaiati individualmente a ciascun caso per età, sesso e residenza del caso. Risultati. In Italia sono stati intervistati a Giugno 2014, 106 casi e 191 controlli. In Emilia-Romagna i casi reclutati sono stati fino ad ora 21 e i controlli 20, con una rispondenza del’81% e dell’65% rispettivamente. Dei 41 soggetti totali, il 61% era di sesso maschile con un’età media generale pari a 16,5 (±4,5) anni. Inoltre il 44% degli intervistati proveniva dalla classe di età più giovane (10-14). In merito allo stato di appaiamento, nella nostra Regione sono state effettuate 7 triplette (33%) - 1 caso e 2 controlli - e 6 doppiette (29%) - 1 caso ed 1 controllo. Conclusioni. Nonostante le varie difficoltà affrontate data la natura del progetto, l’esperienza maturata fin ad ora ha comunque portato alla fattibilità dello studio e porterà probabilmente a risultati che contribuiranno alla comprensione dei potenziali rischi di neoplasie cerebrali associati all'uso di telefoni cellulari tra i giovani.
Resumo:
E’ stato in primo luogo definito il criterio di efficienza dal punto di vista economico (con una accenno anche ai parametri elaborati dagli studiosi di discipline aziendali), nelle sue varie accezioni, ponendo altresì ciascuna di queste in relazione alle condizioni di concorrenza perfetta. Le nozioni di efficienza che sono state definite a tal fine sono quelle di efficienza allocativa, efficienza tecnica, efficienza dinamica ed efficienza distributiva. Ciascuna di esse é stata inquadrata a livello teorico secondo le definizioni fornite dalla letteratura, esaminandone le ipotesi sottostanti. E’ stata altresì descritta, contestualizzandola temporalmente, l’evoluzione della nozione, e ne sono state evidenziate le implicazioni ai fini della ricerca della forma di mercato più “efficiente”. Sotto quest’ultimo aspetto l’attenzione dello scrivente si é incentrata sul rapporto tra le diverse accezioni di efficienza economica oggetto di analisi e la desiderabilità o meno di un regime di concorrenza perfetta. Il capitolo si conclude con una breve panoramica sulle metodologie di misurazione finalizzata ad individuare i principali parametri utilizzati per determinare il livello di efficienza, di un mercato, di un’attività produttiva o di un’impresa, posto che, come verrà specificato nel prosieguo della tesi, la valutazione di efficienza in ambito antitrust deve essere verificata, ove possibile, anche basandosi sull’evidenza empirica delle singole imprese esaminate, come richiede il criterio della rule of reason. Capitolo 2 Presupposto per avere una regolazione che persegua l’obiettivo di avere una regolazione efficiente ed efficace, è, a parere di chi scrive, anche l’esistenza di autorità pubbliche deputate a esercitare la funzione regolatoria che rispettino al proprio interno e nel proprio agire la condizione di efficienza definita rispetto ai pubblici poteri. Lo sviluppo di questa affermazione ha richiesto in via preliminare, di definire il criterio di efficienza in ambito pubblicistico individuandone in particolare l’ambito di applicazione, il suo rapporto con gli altri principi che reggono l’azione amministrativa (con particolare riferimento al criterio di efficacia). Successivamente é stato collocato nel nostro ordinamento nazionale, ponendolo in relazione con il principio di buon andamnento della Pubblica Amministrazione, benchè l’ordinamento italiano, per la sua specificità non costituisca un esempio estendibile ad ordinamenti. Anche con riferimento al criterio di efficienza pubblica, un paragrafo é stato dedicato alle metodologie di misurazione di questa, e, nello specifico sull’Analisi Costi-Benefici e sull’Analisi di Impatto della Regolazione Una volta inquadrata la definizione di efficienza pubblica, questa é stata analizzata con specifico riferimento all’attività di regolazione dell’economia svolta dai soggetti pubblici, ambito nella quale rientra la funzione antitrust. Si é provato in particolare ad evidenziare, a livello generale, quali sono i requisiti necessari ad un’autorità amministrativa antitrust, costituita e dotata di poteri ad hoc, affinché essa agisca, nella sua attività di regolazione, secondo il principio di efficienza, Il capitolo si chiude allargando l’orizzonte della ricerca verso una possibile alternativa metodologica al criterio di efficienza precedentemente definito: vi si é infatti brevemente interrogati circa lo schema interpretativo nel quale ci muoviamo, affrontando la questione definitoria del criterio di efficienza, ponendolo in relazione con l’unico modello alternativo esistente, quello sviluppatosi nella cultura cinese. Non certo per elaborare un’applicazione in “salsa cinese” del criterio di efficienza alla tutela della concorrenza, compito al quale lo scrivente non sarebbe stato in grado di ottemperare, bensì, più semplicemente per dare conto di un diverso approccio alla questione che il futuro ruolo di superpotenza economica della Cina imporrà di prendere in considerazione. Capitolo 3 Nel terzo capitolo si passa a definire il concetto di concorrenza come istituto oggetto di tutela da parte della legge antitrust, per poi descrivere la nascita e l’evoluzione di tale legislazione negli Stati Uniti e della sua applicazione, posto che il diritto antitrust statunitense ancora oggi costituisce il necessario punto di riferimento per lo studioso di questa materia. L’evoluzione del diritto antitrust statunitense é stata analizzata parallelamente allo sviluppo delle principali teorie di law and economics che hanno interpretato il diritto della concorrenza quale possibile strumento per conseguire l’obiettivo dell’efficienza economica: la Scuola di Harvard e il paradigma strutturalista, la teoria evoluzionista della Scuola Austriaca, la Scuola di Chicago; le c.d. teorie “Post-Chicago”. Nel terzo capitolo, in altri termini, si é dato conto dell’evoluzione del pensiero economico con riferimento alla sua applicazione al diritto antitrust, focalizzando l’attenzione su quanto avvenuto negli Stati Uniti, paese nel quale sono nati sia l’istituto giuridico della tutela della concorrenza sia l’analisi economica del diritto. A conclusione di questa ricostruzione dottrinale ho brevemente esaminato quelle che sono le nuove tendenze dell’analisi economica del diritto, e specificatamente la teoria del comportamento irrazionale, benché esse non abbiano ancora ricevuto applicazione al diritto antitrust. Chi scrive ritiene infatti che queste teorie avranno ricadute anche in questa materia poiché essa costituisce uno dei principali ambiti applicativi della law and economics. Capitolo 4 Nel quarto capitolo é stata effettuata una disanima della disciplina comunitaria antitrust sottolineando come l’Unione Europea si proponga attraverso la sua applicazione, soprattutto in materia di intese, di perseguire fini eterogenei, sia economici che non economici, tra loro diversi e non di rado contrastanti, e analizzando come questa eterogeneità di obiettivi abbia influito sull’applicazione del criterio di efficienza. Attenendomi in questo capitolo al dato normativo, ho innanzitutto evidenziato l’ampiezza dell’ambito di applicazione della disciplina comunitaria antitrust sia dal punto di vista soggettivo che territoriale (dottrina dell’effetto utile), sottolineando come la norma giustifichi esplicitamente il ricorso al criterio di efficienza solo nella valutazione delle intese: il comma 3 dell’art. 81 del Trattato include, infatti, tra i requisiti di una possibile esenzione dall’applicazione del divieto per le intese qualificate come restrittive della concorrenza, la possibilità di ottenere incrementi di efficienza tecnica e/o dinamica attraverso l’implementazione delle intese in questione. Tuttavia la previsione da parte dello stesso art. 81 (3) di altri requisiti che devono contemporaneamente essere soddisfatti affinché un intesa restrittiva della concorrenza possa beneficiare dell’esenzione, nonché la possibile diversa interpretazione della locuzione “progresso tecnico ed economico”, impone, o comunque ammette, il perseguimento di altri obiettivi, contestualmente a quello dell’efficienza, giustificando così quell’eterogeneità dei fini che contraddistingue la politica della concorrenza dell’Unione Europea. Se la disciplina delle intese aiuta a comprendere il ruolo del criterio di efficienza nell’applicazione dei precetti antitrust da parte degli organi comunitari, l’art. 82 del Trattato non contiene invece alcun riferimento alla possibilità di utilizzare il criterio di efficienza nella valutazione delle condotte unilaterali poste in essere da imprese in posizione dominante sul mercato rilevante. Si è peraltro dato conto della consultazione recentemente avviata dalla Commissione Europea finalizzata all’elaborazione di Linee Guida che definiscano i criteri di interpretazione che l’organo comunitario dovrà seguire nella valutazione dei comportamenti unilaterali. A parere dello scrivente, anzi, l’assenza di un preciso schema cui subordinare la possibilità di ricorrere al criterio di efficienza nella valutazione della fattispecie, attribuisce alle autorità competenti un più ampio margine di discrezionalità nell’utilizzo del suddetto criterio poiché manca il vincolo della contestuale sussistenza delle altre condizioni di cui all’art. 81(3). Per quanto concerne infine la disciplina delle concentrazioni, essa, come abbiamo visto, prevede un riferimento ai possibili incrementi di efficienza (tecnica e dinamica) derivanti da operazioni di fusione, utilizzando la nozione utilizzata per le intese, così come nel precedente Regolamento 4064/89. Si é infine analizzato il nuovo Regolamento in materia di concentrazioni che avrebbe potuto costituire l’occasione per recepire nella disciplina comunitaria l’attribuzione della facoltà di ricorrere all’efficiency defense in presenza di una fattispecie, quella della fusione tra imprese, suscettibile più di altre di essere valutata secondo il criterio di efficienza, ma che si é invece limitato a riprendere la medesima locuzione presente nell’art. 81(3). Il capitolo attesta anche l’attenzione verso l’istanza di efficienza che ha riguardato il meccanismo di applicazione della norma antitrust e non il contenuto della norma stessa; a questo profilo attiene, infatti, l’innovazione apportata dal Regolamento 1/2003 che ha permesso, a parere dello scrivente, un’attribuzione più razionale della competenza nella valutazione dei casi tra la Commissione e le autorità nazionali degli Stati membri; tuttavia pone alcune questioni che investono direttamente il tema dei criteri di valutazione utilizzati dalle autorità competenti. Capitolo 5 L’analisi del quarto capitolo é stata condotta, sebbene in forma più sintetica, con riferimento alle normative antitrust dei principali Stati membri della Comunità Europea (Germania, Gran Bretagna, Spagna, Francia e Italia), rapportando anche queste al criterio di efficienza, ove possibile. Particolare attenzione é stata dedicata ai poteri e alle competenze attribuite alle autorità nazionali antitrust oggetto di studio dall’ordinamento giuridico cui appartengono e al contesto, in termini di sistema giuridico, nel quale esse operano. Capitolo 6 Si é provato ad effettuare una valutazione del livello di efficienza delle autorità prese in esame, la Commissione e le diverse autorità nazionali e ciò con particolare riferimento alla idoneità di queste a svolgere i compiti istituzionali loro affidati (criterio di efficienza dal punto di vista giuridico): affinchè un’autorità si possa ispirare al criterio di efficienza economica nell’adozione delle decisioni, infatti, è preliminarmente necessario che essa sia idonea a svolgere il compito che le è stato affidato dall’ordinamento. In questo senso si é osservata la difficoltà dei paesi di civil law a inquadrare le autorità indipendenti all’interno di un modello, quello appunto di civil law, ispirato a una rigida tripartizione dei poteri. Da qui la difficile collocazione di queste autorità che, al contrario, costituiscono un potere “ibrido” che esercita una funzione di vigilanza e garanzia non attribuibile integralmente né al potere esecutivo né a quello giurisdizionale. Si rileva inoltre una certa sovrapposizione delle competenze e dei poteri tra autorità antitrust e organi ministeriali, in particolare nel campo delle concentrazioni che ingenera un rischio di confusione e bassa efficienza del sistema. Mantenendo, infatti, un parziale controllo politico si rischia, oltre all’introduzione di criteri di valutazione politica che prescindono dagli effetti delle fattispecie concrete sul livello di concorrenza ed efficienza del mercato, anche di dare luogo a conflitti tra le diverse autorità del sistema che impediscano l’adozione e l’implementazione di decisioni definitive, incrementando altresì i costi dell’intervento pubblico. Un giudizio a parte è stato infine formulato con riguardo alla Commissione Europea, istituzione, in quanto avente caratteristiche e poteri peculiari. Da un lato l’assenza di vincolo di mandato dei Commissari e l’elevata preparazione tecnica dei funzionari costituiscono aspetti che avvicinano la Commissione al modello dell’autorità indipendenti, e l’ampiezza dei poteri in capo ad essa le permette di operare efficientemente grazie anche alla possibilità di valersi dell’assistenza delle autorità nazionali. Dall’altra parte, tuttavia la Commissione si caratterizza sempre di più come un organo politico svolgente funzioni esecutive, di indirizzo e di coordinamento che possono influenzare gli obiettivi che essa persegue attraverso l’attività antitrust, deviandola dal rispetto del criterio di efficienza. Capitolo 7 Una volta definito il contesto istituzionale di riferimento e la sua idoneità a svolgere la funzione affidatagli dall’ordinamento comunitario, nonché da quelli nazionali, si è proceduto quindi all’analisi delle decisioni adottate da alcune delle principali autorità nazionali europee competenti ad applicare la disciplina della concorrenza dal punto di vista dell’efficienza. A tal fine le fattispecie rilevanti a fini antitrust dal punto di vista giuridico sono state classificate utilizzando un criterio economico, individuando e definendo quelle condotte che presentano elementi comuni sotto il profilo economico e per ciascuna di esse sono state inquadrate le problematiche rilevanti ai fini dell’efficienza economica sulla scorta dei contributi teorici e delle analisi empiriche svolte dalla letteratura. 6 Con riferimento a ciascuna condotta rilevante ho esaminato il contenuto di alcune delle decisioni antitrust più significative e le ho interpretate in base al criterio di efficienza. verificando se e in quale misura le autorità antitrust prese in esame utilizzano tale criterio, cercando altresì di valutare l’evoluzione dei parametri di valutazione occorsa nel corso degli anni. Le decisioni analizzate sono soprattutto quelle adottate dalla Commissione e le eventuali relative sentenze della Corte di Giustizia Europea; ciò sia per la maggior rilevanza dei casi trattati a livello comunitario, sia in quanto le autorità nazionali, con qualche rara eccezione, si conformano generalmente ai criteri interpretativi della Commissione. Riferimenti a decisioni adottate dalle autorità nazionali sono stati collocati allorquando i loro criteri interpretativi si discostino da quelli utilizzati dagli organi comunitari. Ne è emerso un crescente, anche se ancora sporadico e incostante, ricorso al criterio di efficienza da parte degli organi europei preposti alla tutela della concorrenza. Il tuttora scarso utilizzo del criterio di efficienza nello svolgimento dell’attività antitrust è motivato, a parere di chi scrive, in parte dall’eterogeneità degli obiettivi che l’Unione Europea persegue attraverso la politica della concorrenza comunitaria (completamento del mercato unico, tutela del consumatore, politica industriale, sviluppo delle aree svantaggiate), in parte dall’incapacità (o dall’impossibilità) delle autorità di effettuare coerenti analisi economiche delle singole fattispecie concrete. Anche le principali autorità nazionali mostrano una crescente propensione a tendere conto dell’efficienza nella valutazione dei casi, soprattutto con riferimento agli accordi verticali e alle concentrazioni, sulla scia della prassi comunitaria. Più innovativa nell’applicazione del criterio di efficienza economica così come nella ricerca di uso ottimale delle risorse si è finora dimostrato l’OFT, come vedremo anche nel prossimo capitolo. Al contrario sembra più lenta l’evoluzione in questo senso dell’Ufficio dei Cartelli tedesco sia a causa delle già citate caratteristiche della legge antitrust tedesca, sia a causa del persistente principio ordoliberale della prevalenza del criterio della rule of law sulla rule of reason. Peraltro, anche nei casi in cui le Autorità siano propense ad utilizzare il criterio di efficienza nelle loro valutazioni, esse si limitano generalmente ad un’analisi teorica dell’esistenza di precondizioni che consentano alle imprese in questione di ottenere guadagni di efficienza. La sussistenza di tali pre-condizioni viene infatti rilevata sulla base della capacità potenziale della condotta dell’impresa (o delle imprese) di avere un effetto positivo in termini di efficienza, nonché sulla base delle caratteristiche del mercato rilevante. Raramente, invece, si tiene conto della capacità reale dei soggetti che pongono in essere la pratica suscettibile di essere restrittiva della concorrenza di cogliere effettivamente queste opportunità, ovvero se la struttura e l’organizzazione interna dell’impresa (o delle imprese) non è in grado di mettere in pratica ciò che la teoria suggerisce a causa di sue carenza interne o comunque in ragione delle strategie che persegue. Capitolo 8 Poiché l’approccio ispirato al criterio di efficienza economica non può prescindere dalle caratteristiche del settore e del mercato in cui operano l’impresa o le imprese che hanno posto in essere la condotta sotto esame, e poiché una valutazione approfondita di tutti i settori non era effettuabile per quantità di decisioni adottate dalle autorità, ho infine ritenuto di svolgere un’analisi dettagliata dell’attività delle autorità con riferimento ad uno specifico settore. La scelta è caduta sul settore dei trasporti in quanto esso presenta alcune problematiche che intrecciano l’esigenza di efficienza con la tutela della concorrenza, nonché per la sua importanza ai fini dello sviluppo economico. Tanto più alla luce del fenomeno della crescente apertura dei mercati che ha enfatizzato la triplice funzione dei trasporti di merci, di livellamento nello spazio dei prezzi di produzione, di redistribuzione nello spazio dell’impiego dei fattori della produzione, e soprattutto di sollecitazione al miglioramento delle tecnologie utilizzate nella produzione stessa in quanto contribuiscono alla divisione territoriale del lavoro e alla specializzazione produttiva. A loro volta, d’altra parte, i miglioramenti tecnici e organizzativi intervenuti nel settore negli ultimi trenta anni hanno reso possibile il fenomeno della globalizzazione nella misura in cui lo conosciamo. Così come le riduzioni di costo e di tempo conseguite nel trasporto di persone hanno consentito massicci spostamenti di lavoratori e più in generale di capitale umano da una parte all’altra del globo, e favorito altresì la spettacolare crescita del settore turistico. Ho quindi condotto un’analisi delle decisioni antitrust relative al settore dei trasporti, suddividendo la casistica in base al comparto al quale esse si riferivano, cercando sempre di non perdere di vista i crescenti legami che esistono tra i vari comparti alla luce dell’ormai affermato fenomeno del trasporto multimodale. Dall’analisi svolta emerge innanzitutto come l’assoggettamento del settore dei trasporti alla disciplina di tutela della concorrenza sia un fenomeno relativamente recente rispetto alle altre attività economiche, laddove la ragione di tale ritardo risiede nel fatto che tradizionalmente questo settore era caratterizzato da un intervento pubblico diretto e da una pervasiva regolamentazione, a sua volta giustificata da vari fattori economici: le caratteristiche di monopolio naturale delle infrastrutture; le esigenze di servizio pubblico connesse all’erogazione di molti servizi di trasporto; il ruolo strategico svolto dal trasporto sia di persone che di merci ai fini della crescita economica di un sistema. Si concretizza, inoltre, con riferimento ai trasporti marittimi e aerei, l’inadeguatezza della dimensione nazionale e comunitaria delle autorità competenti rispetto a comportamenti di impresa che spesso hanno effetti letteralmente globali. Le imprese marittime e aeree coinvolte nelle fattispecie da noi esaminate, infatti, in molti casi predisponevano, direttamente o mediatamente, tramite “alleanze”, collegamenti tra tutte le aree del mondo, individuando nell’Europa solo un nodo di un network ben più ampio Da questa constatazione discende, a parere dello scrivente, l’impossibilità per l’autorità comunitaria e ancor più per quella nazionale di individuare tutti gli effetti in termini di efficienza che la fattispecie concreta può provocare, non includendo pertanto solo quelli evidenti sul mercato comunitario. Conseguentemente una reale applicazione del criterio di efficienza all’attività antitrust nel settore dei trasporti non può prescindere da una collaborazione tra autorità a livello mondiale sia a fini di indagine che a fini di individuazione di alcuni principi fondamentali cui ispirarsi nello svolgimento della loro missione istituzionale. Capitolo 9. Conclusioni L’opera si chiude con l’individuazione delle evidenze e degli elementi emersi dalla trattazione considerati dallo scrivente maggiormente rilevanti nell’ambito dell’attuale dibattito di economia positiva circa le principali problematiche che affiggono l’intervento antitrust con particolare riferimento al suo rispetto del criterio di efficienza. Sono state altresì proposte alcune soluzioni a quelle che sono, a parere dello scrivente, le principali carenze dell’attuale configurazione dell’intervento antitrust a livello europeo, sempre in una prospettiva di efficienza sia delle autorità competenti sia dei mercati in cui le autorità stesse cercano di mantenere o ripristinare condizioni di concorrenza effettiva. Da un lato il modello costituito dalla Commissione Europea, l’autorità antitrust comunitaria, non replicabile né esente da critiche: la Commissione, infatti, rappresenta il Governo dell’Unione Europea e come tale non può ovviamente costituire un esempio di autorità indipendente e neutrale recepibile da parte degli Stati membri. Ciò anche a prescindere dalla questione della sua legittimazione, che in questa sede non affrontiamo. Dall’altro in una prospettiva di efficienza dei mercati la crescente applicazione delle teorie economiche da parte delle autorità esaminate è rimasta a un livello astratto, senza porre la dovuta attenzione alle specificità dei mercati rilevanti né tantomeno alle dinamiche interne alle singole imprese, con particolare riferimento alla loro capacità di rendere effettivi i guadagni di efficienza individuabili a livello potenziale, così come prescrive la più recente teoria economica applicata al diritto antitrust. Sotto il profilo dell’applicazione del criterio di efficienza si può comunque affermare che l’evoluzione che ha avuto la prassi decisionale e la giurisprudenza, comunitaria e degli Stati membri, in materia antitrust è stata caratterizzata dal loro progressivo avvicinamento alle tendenze sviluppatesi nelle agencies e nella giurisprudenza statunitense a partire dagli anni’70, caratterizzate dalla valutazione degli effetti, piuttosto che della forma giuridica, dal riconoscimento del criterio di efficienza e dalla rule of reason quale approccio metodologico. L’effetto è stato quello di determinare una significativa riduzione delle differenze inizialmente emerse tra le due esperienze, nate inizialmente sotto diverse prospettive politiche. Per quanto concerne specificatamente i trasporti sono emersi sotto il profilo economico due aspetti rilevanti, oltre al perdurante ritardo con cui il processo di liberalizzazione del trasporto ferroviario che limita fortemente l’intervento antitrust nel comparto, ma che esula dalla competenza delle stesse autorità antitrust. Il primo consiste nella spesso troppo rigida separazione tra comparti adottata dalle autorità. Il secondo è l’estensivo ricorso all’essential facility doctrine nelle fattispecie riguardanti infrastrutture portuali e aeroportuali: la massimizzazione dell’efficienza dinamica consiglierebbe in questi casi una maggiore cautela, in quanto si tratta di un paradigma che, una volta applicato, disincentiva la duplicazione e l’ampliamento di tali infrastrutture autoalimentandone il carattere di essenzialità. Ciò soprattutto laddove queste infrastrutture possono essere sostituite o duplicate piuttosto facilmente da un punto di vista tecnico (meno da un punto di vista economico e giuridico), essendo esse nodi e non reti. E’stata infine sottolineata l’inadeguatezza della dimensione nazionale e comunitaria delle autorità competenti rispetto a comportamenti di impresa che con riferimento ai trasporti marittimi ed aerei hanno effetti letteralmente globali. E’ di tutta evidenza che le autorità comunitarie e tantomeno quelle nazionali non sono da sole in grado di condurre le analisi quantitative necessarie ad una valutazione di tali condotte ispirata a un criterio di efficienza che tenga conto degli effetti di lungo periodo della fattispecie concreta. Né tali autorità sono sufficientemente neutre rispetto alla nazionalità delle imprese indagate per poter giudicare sulla liceità o meno della condotta in questione senza considerare gli effetti della loro decisione sull’economia interna, rendendo così ancora più improbabile un corretto utilizzo del criterio di efficienza. Da ultimo ho constatato come l’applicazione del concetto di efficienza giuridica imporrebbe di concepire autorità antitrust del tutto nuove, sganciate quanto più possibile dall’elemento territoriale, in grado di elaborare regole e standards minimi comuni e di permettere il controllo dei comportamenti di impresa in un contesto ampliato rispetto al tradizionale mercato unico, nonchè ai singoli mercati nazionali. Il processo di armonizzazione a livello globale è difficile e il quadro che attualmente viene formato è ancora confuso e incompleto. Vi sono tuttavia sparsi segnali attraverso i quali é possibile intravedere i lineamenti di una futura global governance della concorrenza che permetterà, sperabilmente, di incrementare l’efficienza di un sistema, quello antitrust, che tanto più piccolo è l’ambito in cui opera quanto più si sta dimostrando inadeguato a svolgere il compito affidatogli. Solo il futuro, peraltro, ci consentirà di verificare la direzione di sviluppo di questi segnali.
Resumo:
Obiettivi: nonostante i miglioramenti nel trattamento, circa il 30% dei pazienti pediatrici affetti da Linfoma di Hodgkin (LH) in stadio avanzato recidiva o muore per progressione di malattia e i correnti metodi predittivi biologico-clinici non consentono di individuare tali pazienti. L’obiettivo dello studio è stato quello di definire un profilo molecolare di rischio che correli con l’outcome in questi pazienti. Materiali e metodi: studio retrospettico condotto su pazienti pediatrici affetti da LH omogeneamente trattati dal 2004 in poi. Su tali pazienti è stato intrapreso uno studio di validazione di marcatori molecolari già identificati in studi esplorativi precedenti. 27 geni sono stati analizzati in RT PCR su campioni di tessuto istologico prelevato alla diagnosi fissato in formalina e processato in paraffina relativi a una coorte di 37 pazienti, 12 ad outcome sfavorevole e 25 ad outcome favorevole. Risultati: dall’analisi univariata è emerso che solo l’espressione di CASP3 e CYCS, appartenenti al pathway apoptotico, è in grado di influenzare l’EFS in modo significativo nella nostra coorte di pazienti. Lo studio delle possibili combinazioni di questi geni ha mostrato l’esistenza di 3 gruppi di rischio che correlano con l’EFS: alto rischio (down regolazione di entrambi i geni), rischio intermedio (down regolazione di uno solo dei 2 geni), basso rischio (up regolazione di entrambi i geni). Dall’analisi multivariata è emerso che CASP3 è l’unica variabile che mantiene la sua indipendenza nell’influenzare la prognosi con un rischio di eventi di oltre il doppio di chi ha un’espressione bassa di questo gene. Conclusioni: i risultati ottenuti sulla nostra coorte di pazienti pediatrici affetti da LH confermano l’impatto sulla prognosi di due marcatori molecolari CASP3 e CYCS coinvolti nel patwhay apoptotico. La valutazione del profilo di espressione di tali geni, potrebbe pertanto essere utilizzata in corso di stadiazione, come criterio di predittività.
Resumo:
E' stato sviluppato un algoritmo predittivo del rischio di consolidazione ossea (ARRCO – Algoritmo Rischio Ritardo Consolidazione Ossea - IGEA, Carpi, Italy) che combina diversi fattori correlati al rischio di ritardata o mancata guarigione di una frattura. Questo algoritmo ha permesso di idntificare una popolazione di pazienti affetti da fratture con aumentato rischio di ritardo di consolidazione o mancata guarigione. Questi pazienti sono stati sottoposti precocemente a stimolazione biofisica precoce mediante Campi Elettromagnetici Pulsati a bassa frequenza (CEMP), ottenendo la guarigione della frattura nella maggior parte dei casi e in tempi considerati fisiologici. Pertanto in un gruppo selezionato di pazienti, il trattamento può essere indirizzato all'applicazione precoce di CEMP, al fine di promuovere la consolidazione ossea di una frattura "a richio", il cui trattamento richiederebbe altrimenti tempi più prolungati e un costo virtuale maggiore dell'intero trattamento sanitario.
Resumo:
OBIETTIVI: Per esplorare il contributo dei fattori di rischio biomeccanico, ripetitività (hand activity level – HAL) e forza manuale (peak force - PF), nell’insorgenza della sindrome del tunnel carpale (STC), abbiamo studiato un’ampia coorte di lavoratori dell’industria, utilizzando come riferimento il valore limite di soglia (TLV©) dell’American Conference of Governmental Industrial Hygienists (ACGIH). METODI: La coorte è stata osservata dal 2000 al 2011. Abbiamo classificato l’esposizione professionale rispetto al limite di azione (AL) e al TLV dell’ACGIH in: “accettabile” (sotto AL), “intermedia” (tra AL e TLV) e “inaccettabile” (sopra TLV). Abbiamo considerato due definizioni di caso: 1) sintomi di STC; 2) sintomi e positività allo studio di conduzione nervosa (SCN). Abbiamo applicato modelli di regressione di Poisson aggiustati per sesso, età, indice di massa corporea e presenza di patologie predisponenti la malattia. RISULTATI: Nell’intera coorte (1710 lavoratori) abbiamo trovato un tasso di incidenza (IR) di sintomi di STC di 4.1 per 100 anni-persona; un IR di STC confermata dallo SCN di 1.3 per 100 anni-persona. Gli esposti “sopra TLV” presentano un rischio di sviluppare sintomi di STC di 1.76 rispetto agli esposti “sotto AL”. Un andamento simile è emerso per la seconda definizione di caso [incidence rate ratios (IRR) “sopra TLV”, 1.37 (intervallo di confidenza al 95% (IC95%) 0.84–2.23)]. Gli esposti a “carico intermedio” risultano a maggior rischio per la STC [IRR per i sintomi, 3.31 (IC95% 2.39–4.59); IRR per sintomi e SCN positivo, 2.56 (IC95% 1.47–4.43)]. Abbiamo osservato una maggior forza di associazione tra HAL e la STC. CONCLUSIONI: Abbiamo trovato un aumento di rischio di sviluppare la STC all’aumentare del carico biomeccanico: l’aumento di rischio osservato già per gli esposti a “carico intermedio” suggerisce che gli attuali valori limite potrebbero non essere sufficientemente protettivi per alcuni lavoratori. Interventi di prevenzione vanno orientati verso attività manuali ripetitive.
Valutazione della presenza di contaminanti perfluoroalchilici in alimenti destinati al consumo umano
Resumo:
Le sostanze perfluoralchiliche (PFAS), composti fluorurati ampiamente utilizzati negli ultimi anni in diverse applicazioni industriali e commerciali, sono ritrovati diffusamente nell’ambiente e in diverse specie animali. Recentemente i PFAS hanno destato preoccupazione anche per la salute umana. Il rischio di esposizione è principalmente legato alla dieta (i prodotti ittici sembrano essere gli alimenti più contaminati). Lo scopo di questo lavoro è stato quello di valutare la presenza del perfluorottanosulfonato (PFOS) e dell’acido perfluorottanoico (PFOA), in diverse matrici alimentari: latte vaccino commercialmente disponibile in Italia, latte materno italiano, diverse specie di pesce commercialmente disponibili in Italia e 140 branzini di diverse aree (principalmente Mediterraneo). I campioni di latte sono stati trattati con estrazione liquido-liquido seguita da due fasi di purificazione mediante cartucce SPE prima dell’iniezione nell’UPLC-MS/MS. L’analisi del latte vaccino ha evidenziato una contaminazione diffusa di PFOS, ma a basse concentrazioni (fino a 97 ng/L), mentre il PFOA è stato ritrovato raramente. In questo studio, in grado di individuare anche i livelli delle ultra-tracce, sono state osservate nel latte materno concentrazioni di 15-288 ng/L per il PFOS e di 24-241 ng/LPFOA. Le concentrazioni e le frequenze più alte, per entrambi i PFAS, sono stati ritrovate in campioni di latte forniti da donne primipare, suggerendo un rischio di esposizione per i primogeniti. Il metodo utilizzato per i campioni di pesce era basato su un’estrazione con solvente organico seguita da due fasi di purificazione: una con i sali e una con fase solida dispersiva. L’estratto, analizzato in UPLC-MS/MS, ha confermato la contaminazione di questa matrice a livelli significativi, ma anche l’alta variabilità delle concentrazioni misurate. Il monitoraggio monospecie ha mostrato una contaminazione rilevante (PFOS 11,1- > 10000 ng/L; PFOA < 9-487 ng/L), soprattutto nei branzini pescati, rispetto a quelli allevati.
Resumo:
Se il lavoro dello storico è capire il passato come è stato compreso dalla gente che lo ha vissuto, allora forse non è azzardato pensare che sia anche necessario comunicare i risultati delle ricerche con strumenti propri che appartengono a un'epoca e che influenzano la mentalità di chi in quell'epoca vive. Emergenti tecnologie, specialmente nell’area della multimedialità come la realtà virtuale, permettono agli storici di comunicare l’esperienza del passato in più sensi. In che modo la storia collabora con le tecnologie informatiche soffermandosi sulla possibilità di fare ricostruzioni storiche virtuali, con relativi esempi e recensioni? Quello che maggiormente preoccupa gli storici è se una ricostruzione di un fatto passato vissuto attraverso la sua ricreazione in pixels sia un metodo di conoscenza della storia che possa essere considerato valido. Ovvero l'emozione che la navigazione in una realtà 3D può suscitare, è un mezzo in grado di trasmettere conoscenza? O forse l'idea che abbiamo del passato e del suo studio viene sottilmente cambiato nel momento in cui lo si divulga attraverso la grafica 3D? Da tempo però la disciplina ha cominciato a fare i conti con questa situazione, costretta soprattutto dall'invasività di questo tipo di media, dalla spettacolarizzazione del passato e da una divulgazione del passato parziale e antiscientifica. In un mondo post letterario bisogna cominciare a pensare che la cultura visuale nella quale siamo immersi sta cambiando il nostro rapporto con il passato: non per questo le conoscenze maturate fino ad oggi sono false, ma è necessario riconoscere che esiste più di una verità storica, a volte scritta a volte visuale. Il computer è diventato una piattaforma onnipresente per la rappresentazione e diffusione dell’informazione. I metodi di interazione e rappresentazione stanno evolvendo di continuo. Ed è su questi due binari che è si muove l’offerta delle tecnologie informatiche al servizio della storia. Lo scopo di questa tesi è proprio quello di esplorare, attraverso l’utilizzo e la sperimentazione di diversi strumenti e tecnologie informatiche, come si può raccontare efficacemente il passato attraverso oggetti tridimensionali e gli ambienti virtuali, e come, nel loro essere elementi caratterizzanti di comunicazione, in che modo possono collaborare, in questo caso particolare, con la disciplina storica. La presente ricerca ricostruisce alcune linee di storia delle principali fabbriche attive a Torino durante la seconda guerra mondiale, ricordando stretta relazione che esiste tra strutture ed individui e in questa città in particolare tra fabbrica e movimento operaio, è inevitabile addentrarsi nelle vicende del movimento operaio torinese che nel periodo della lotta di Liberazione in città fu un soggetto politico e sociale di primo rilievo. Nella città, intesa come entità biologica coinvolta nella guerra, la fabbrica (o le fabbriche) diventa il nucleo concettuale attraverso il quale leggere la città: sono le fabbriche gli obiettivi principali dei bombardamenti ed è nelle fabbriche che si combatte una guerra di liberazione tra classe operaia e autorità, di fabbrica e cittadine. La fabbrica diventa il luogo di "usurpazione del potere" di cui parla Weber, il palcoscenico in cui si tengono i diversi episodi della guerra: scioperi, deportazioni, occupazioni .... Il modello della città qui rappresentata non è una semplice visualizzazione ma un sistema informativo dove la realtà modellata è rappresentata da oggetti, che fanno da teatro allo svolgimento di avvenimenti con una precisa collocazione cronologica, al cui interno è possibile effettuare operazioni di selezione di render statici (immagini), di filmati precalcolati (animazioni) e di scenari navigabili interattivamente oltre ad attività di ricerca di fonti bibliografiche e commenti di studiosi segnatamente legati all'evento in oggetto. Obiettivo di questo lavoro è far interagire, attraverso diversi progetti, le discipline storiche e l’informatica, nelle diverse opportunità tecnologiche che questa presenta. Le possibilità di ricostruzione offerte dal 3D vengono così messe a servizio della ricerca, offrendo una visione integrale in grado di avvicinarci alla realtà dell’epoca presa in considerazione e convogliando in un’unica piattaforma espositiva tutti i risultati. Divulgazione Progetto Mappa Informativa Multimediale Torino 1945 Sul piano pratico il progetto prevede una interfaccia navigabile (tecnologia Flash) che rappresenti la pianta della città dell’epoca, attraverso la quale sia possibile avere una visione dei luoghi e dei tempi in cui la Liberazione prese forma, sia a livello concettuale, sia a livello pratico. Questo intreccio di coordinate nello spazio e nel tempo non solo migliora la comprensione dei fenomeni, ma crea un maggiore interesse sull’argomento attraverso l’utilizzo di strumenti divulgativi di grande efficacia (e appeal) senza perdere di vista la necessità di valicare le tesi storiche proponendosi come piattaforma didattica. Un tale contesto richiede uno studio approfondito degli eventi storici al fine di ricostruire con chiarezza una mappa della città che sia precisa sia topograficamente sia a livello di navigazione multimediale. La preparazione della cartina deve seguire gli standard del momento, perciò le soluzioni informatiche utilizzate sono quelle fornite da Adobe Illustrator per la realizzazione della topografia, e da Macromedia Flash per la creazione di un’interfaccia di navigazione. La base dei dati descrittivi è ovviamente consultabile essendo contenuta nel supporto media e totalmente annotata nella bibliografia. È il continuo evolvere delle tecnologie d'informazione e la massiccia diffusione dell’uso dei computer che ci porta a un cambiamento sostanziale nello studio e nell’apprendimento storico; le strutture accademiche e gli operatori economici hanno fatto propria la richiesta che giunge dall'utenza (insegnanti, studenti, operatori dei Beni Culturali) di una maggiore diffusione della conoscenza storica attraverso la sua rappresentazione informatizzata. Sul fronte didattico la ricostruzione di una realtà storica attraverso strumenti informatici consente anche ai non-storici di toccare con mano quelle che sono le problematiche della ricerca quali fonti mancanti, buchi della cronologia e valutazione della veridicità dei fatti attraverso prove. Le tecnologie informatiche permettono una visione completa, unitaria ed esauriente del passato, convogliando tutte le informazioni su un'unica piattaforma, permettendo anche a chi non è specializzato di comprendere immediatamente di cosa si parla. Il miglior libro di storia, per sua natura, non può farlo in quanto divide e organizza le notizie in modo diverso. In questo modo agli studenti viene data l'opportunità di apprendere tramite una rappresentazione diversa rispetto a quelle a cui sono abituati. La premessa centrale del progetto è che i risultati nell'apprendimento degli studenti possono essere migliorati se un concetto o un contenuto viene comunicato attraverso più canali di espressione, nel nostro caso attraverso un testo, immagini e un oggetto multimediale. Didattica La Conceria Fiorio è uno dei luoghi-simbolo della Resistenza torinese. Il progetto è una ricostruzione in realtà virtuale della Conceria Fiorio di Torino. La ricostruzione serve a arricchire la cultura storica sia a chi la produce, attraverso una ricerca accurata delle fonti, sia a chi può poi usufruirne, soprattutto i giovani, che, attratti dall’aspetto ludico della ricostruzione, apprendono con più facilità. La costruzione di un manufatto in 3D fornisce agli studenti le basi per riconoscere ed esprimere la giusta relazione fra il modello e l’oggetto storico. Le fasi di lavoro attraverso cui si è giunti alla ricostruzione in 3D della Conceria: . una ricerca storica approfondita, basata sulle fonti, che possono essere documenti degli archivi o scavi archeologici, fonti iconografiche, cartografiche, ecc.; . La modellazione degli edifici sulla base delle ricerche storiche, per fornire la struttura geometrica poligonale che permetta la navigazione tridimensionale; . La realizzazione, attraverso gli strumenti della computer graphic della navigazione in 3D. Unreal Technology è il nome dato al motore grafico utilizzato in numerosi videogiochi commerciali. Una delle caratteristiche fondamentali di tale prodotto è quella di avere uno strumento chiamato Unreal editor con cui è possibile costruire mondi virtuali, e che è quello utilizzato per questo progetto. UnrealEd (Ued) è il software per creare livelli per Unreal e i giochi basati sul motore di Unreal. E’ stata utilizzata la versione gratuita dell’editor. Il risultato finale del progetto è un ambiente virtuale navigabile raffigurante una ricostruzione accurata della Conceria Fiorio ai tempi della Resistenza. L’utente può visitare l’edificio e visualizzare informazioni specifiche su alcuni punti di interesse. La navigazione viene effettuata in prima persona, un processo di “spettacolarizzazione” degli ambienti visitati attraverso un arredamento consono permette all'utente una maggiore immersività rendendo l’ambiente più credibile e immediatamente codificabile. L’architettura Unreal Technology ha permesso di ottenere un buon risultato in un tempo brevissimo, senza che fossero necessari interventi di programmazione. Questo motore è, quindi, particolarmente adatto alla realizzazione rapida di prototipi di una discreta qualità, La presenza di un certo numero di bug lo rende, però, in parte inaffidabile. Utilizzare un editor da videogame per questa ricostruzione auspica la possibilità di un suo impiego nella didattica, quello che le simulazioni in 3D permettono nel caso specifico è di permettere agli studenti di sperimentare il lavoro della ricostruzione storica, con tutti i problemi che lo storico deve affrontare nel ricreare il passato. Questo lavoro vuole essere per gli storici una esperienza nella direzione della creazione di un repertorio espressivo più ampio, che includa gli ambienti tridimensionali. Il rischio di impiegare del tempo per imparare come funziona questa tecnologia per generare spazi virtuali rende scettici quanti si impegnano nell'insegnamento, ma le esperienze di progetti sviluppati, soprattutto all’estero, servono a capire che sono un buon investimento. Il fatto che una software house, che crea un videogame di grande successo di pubblico, includa nel suo prodotto, una serie di strumenti che consentano all'utente la creazione di mondi propri in cui giocare, è sintomatico che l'alfabetizzazione informatica degli utenti medi sta crescendo sempre più rapidamente e che l'utilizzo di un editor come Unreal Engine sarà in futuro una attività alla portata di un pubblico sempre più vasto. Questo ci mette nelle condizioni di progettare moduli di insegnamento più immersivi, in cui l'esperienza della ricerca e della ricostruzione del passato si intreccino con lo studio più tradizionale degli avvenimenti di una certa epoca. I mondi virtuali interattivi vengono spesso definiti come la forma culturale chiave del XXI secolo, come il cinema lo è stato per il XX. Lo scopo di questo lavoro è stato quello di suggerire che vi sono grosse opportunità per gli storici impiegando gli oggetti e le ambientazioni in 3D, e che essi devono coglierle. Si consideri il fatto che l’estetica abbia un effetto sull’epistemologia. O almeno sulla forma che i risultati delle ricerche storiche assumono nel momento in cui devono essere diffuse. Un’analisi storica fatta in maniera superficiale o con presupposti errati può comunque essere diffusa e avere credito in numerosi ambienti se diffusa con mezzi accattivanti e moderni. Ecco perchè non conviene seppellire un buon lavoro in qualche biblioteca, in attesa che qualcuno lo scopra. Ecco perchè gli storici non devono ignorare il 3D. La nostra capacità, come studiosi e studenti, di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio che il 3D porta con sè, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Una ricostruzione storica può essere molto utile dal punto di vista educativo non sono da chi la visita ma, anche da chi la realizza. La fase di ricerca necessaria per la ricostruzione non può fare altro che aumentare il background culturale dello sviluppatore. Conclusioni La cosa più importante è stata la possibilità di fare esperienze nell’uso di mezzi di comunicazione di questo genere per raccontare e far conoscere il passato. Rovesciando il paradigma conoscitivo che avevo appreso negli studi umanistici, ho cercato di desumere quelle che potremo chiamare “leggi universali” dai dati oggettivi emersi da questi esperimenti. Da punto di vista epistemologico l’informatica, con la sua capacità di gestire masse impressionanti di dati, dà agli studiosi la possibilità di formulare delle ipotesi e poi accertarle o smentirle tramite ricostruzioni e simulazioni. Il mio lavoro è andato in questa direzione, cercando conoscere e usare strumenti attuali che nel futuro avranno sempre maggiore presenza nella comunicazione (anche scientifica) e che sono i mezzi di comunicazione d’eccellenza per determinate fasce d’età (adolescenti). Volendo spingere all’estremo i termini possiamo dire che la sfida che oggi la cultura visuale pone ai metodi tradizionali del fare storia è la stessa che Erodoto e Tucidide contrapposero ai narratori di miti e leggende. Prima di Erodoto esisteva il mito, che era un mezzo perfettamente adeguato per raccontare e dare significato al passato di una tribù o di una città. In un mondo post letterario la nostra conoscenza del passato sta sottilmente mutando nel momento in cui lo vediamo rappresentato da pixel o quando le informazioni scaturiscono non da sole, ma grazie all’interattività con il mezzo. La nostra capacità come studiosi e studenti di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio sottinteso al 3D, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Le esperienze raccolte nelle pagine precedenti ci portano a pensare che in un futuro non troppo lontano uno strumento come il computer sarà l’unico mezzo attraverso cui trasmettere conoscenze, e dal punto di vista didattico la sua interattività consente coinvolgimento negli studenti come nessun altro mezzo di comunicazione moderno.
Resumo:
Il problema della sicurezza/insicurezza delle città, dalle grandi metropoli sino ai più piccoli centri urbani, ha sollecitato negli ultimi anni un’attenzione crescente da parte degli studiosi, degli analisti, degli organi di informazione, delle singole comunità. La delinquenza metropolitana viene oggi diffusamente considerata «un aspetto usuale della società moderna»: «un fatto – o meglio un insieme di fatti – che non richiede nessuna speciale motivazione o predisposizione, nessuna patologia o anormalità, e che è iscritto nella routine della vita economica e sociale». Svincolata dagli schemi positivistici, la dottrina criminologica ha maturato una nuova «cultura del controllo sociale» che ha messo in risalto, rispetto ad ogni visione enfatizzante del reo, l’esigenza di pianificare adeguate politiche e pratiche di prevenzione della devianza urbana attraverso «tutto l’insieme di istituzioni sociali, di strategie e di sanzioni, che mirano a ottenere la conformità di comportamento nella sfera normativa penalmente tutelata». Tale obiettivo viene generalmente perseguito dagli organismi istituzionali, locali e centrali, con diverse modalità annoverabili nel quadro degli interventi di: prevenzione sociale in cui si includono iniziative volte ad arginare la valenza dei fattori criminogeni, incidendo sulle circostanze sociali ed economiche che determinano l’insorgenza e la proliferazione delle condotte delittuose negli ambienti urbani; prevenzione giovanile con cui si tende a migliorare le capacità cognitive e relazionali del minore, in maniera tale da controllare un suo eventuale comportamento aggressivo, e ad insegnare a genitori e docenti come gestire, senza traumi ed ulteriori motivi di tensione, eventuali situazioni di crisi e di conflittualità interpersonale ed interfamiliare che coinvolgano adolescenti; prevenzione situazionale con cui si mira a disincentivare la propensione al delitto, aumentando le difficoltà pratiche ed il rischio di essere scoperti e sanzionati che – ovviamente – viene ponderato dal reo. Nella loro quotidianità, le “politiche di controllo sociale” si sono tuttavia espresse in diversi contesti – ed anche nel nostro Paese - in maniera a tratti assai discutibile e, comunque, con risultati non sempre apprezzabili quando non - addirittura – controproducenti. La violenta repressione dei soggetti ritenuti “devianti” (zero tolerance policy), l’ulteriore ghettizzazione di individui di per sé già emarginati dal contesto sociale, l’edificazione di interi quartieri fortificati, chiusi anche simbolicamente dal resto della comunità urbana, si sono rivelate, più che misure efficaci nel contrasto alla criminalità, come dei «cortocircuiti semplificatori in rapporto alla complessità dell’insieme dei problemi posti dall’insicurezza». L’apologia della paura è venuta così a riflettersi, anche fisicamente, nelle forme architettoniche delle nuove città fortificate ed ipersorvegliate; in quelle gated-communities in cui l’individuo non esita a sacrificare una componente essenziale della propria libertà, della propria privacy, delle proprie possibilità di contatto diretto con l’altro da sé, sull’altare di un sistema di controllo che malcela, a sua volta, implacabili contraddizioni. Nei pressanti interrogativi circa la percezione, la diffusione e la padronanza del rischio nella società contemporanea - glocale, postmoderna, tardomoderna, surmoderna o della “seconda modernità”, a seconda del punto di vista al quale si aderisce – va colto l’eco delle diverse concezioni della sicurezza urbana, intesa sia in senso oggettivo, quale «situazione che, in modo obiettivo e verificabile, non comporta l’esposizione a fattori di rischio», che in senso soggettivo, quale «risultante psicologica di un complesso insieme di fattori, tra cui anche indicatori oggettivi di sicurezza ma soprattutto modelli culturali, stili di vita, caratteristiche di personalità, pregiudizi, e così via». Le amministrazioni locali sono direttamente chiamate a garantire questo bisogno primario di sicurezza che promana dagli individui, assumendo un ruolo di primo piano nell’adozione di innovative politiche per la sicurezza urbana che siano fra loro complementari, funzionalmente differenziate, integrali (in quanto parte della politica di protezione integrale di tutti i diritti), integrate (perché rivolte a soggetti e responsabilità diverse), sussidiarie (perché non valgono a sostituire i meccanismi spontanei di prevenzione e controllo della devianza che si sviluppano nella società), partecipative e multidimensionali (perché attuate con il concorso di organismi comunali, regionali, provinciali, nazionali e sovranazionali). Questa nuova assunzione di responsabilità da parte delle Amministrazioni di prossimità contribuisce a sancire il passaggio epocale «da una tradizionale attività di governo a una di governance» che deriva «da un’azione integrata di una molteplicità di soggetti e si esercita tanto secondo procedure precostituite, quanto per una libera scelta di dar vita a una coalizione che vada a vantaggio di ciascuno degli attori e della società urbana nel suo complesso». All’analisi dei diversi sistemi di governance della sicurezza urbana che hanno trovato applicazione e sperimentazione in Italia, negli ultimi anni, e in particolare negli ambienti territoriali e comunitari di Roma e del Lazio che appaiono, per molti versi, esemplificativi della complessa realtà metropolitana del nostro tempo, è dedicata questa ricerca. Risulterà immediatamente chiaro come il paradigma teorico entro il quale si dipana il percorso di questo studio sia riconducibile agli orientamenti della psicologia topologica di Kurt Lewin, introdotti nella letteratura sociocriminologica dall’opera di Augusto Balloni. Il provvidenziale crollo di antichi steccati di divisione, l’avvento di internet e, quindi, la deflagrante estensione delle frontiere degli «ambienti psicologici» in cui è destinata a svilupparsi, nel bene ma anche nel male, la personalità umana non hanno scalfito, a nostro sommesso avviso, l’attualità e la validità della «teoria del campo» lewiniana per cui il comportamento degli individui (C) appare anche a noi, oggi, condizionato dalla stretta interrelazione che sussiste fra le proprie connotazioni soggettive (P) e il proprio ambiente di riferimento (A), all’interno di un particolare «spazio di vita». Su queste basi, il nostro itinerario concettuale prende avvio dall’analisi dell’ambiente urbano, quale componente essenziale del più ampio «ambiente psicologico» e quale cornice straordinariamente ricca di elementi di “con-formazione” dei comportamenti sociali, per poi soffermarsi sulla disamina delle pulsioni e dei sentimenti soggettivi che agitano le persone nei controversi spazi di vita del nostro tempo. Particolare attenzione viene inoltre riservata all’approfondimento, a tratti anche critico, della normativa vigente in materia di «sicurezza urbana», nella ferma convinzione che proprio nel diritto – ed in special modo nell’ordinamento penale – vada colto il riflesso e la misura del grado di civiltà ma anche delle tensioni e delle contraddizioni sociali che tormentano la nostra epoca. Notevoli spunti ed un contributo essenziale per l’elaborazione della parte di ricerca empirica sono derivati dall’intensa attività di analisi sociale espletata (in collaborazione con l’ANCI) nell’ambito dell’Osservatorio Tecnico Scientifico per la Sicurezza e la Legalità della Regione Lazio, un organismo di supporto della Presidenza della Giunta Regionale del Lazio al quale compete, ai sensi dell’art. 8 della legge regionale n. 15 del 2001, la funzione specifica di provvedere al monitoraggio costante dei fenomeni criminali nel Lazio.
Resumo:
La terra, nel corso della sua storia, ha subito molteplici cambiamenti con la comparsa e scomparsa di numerose specie animali e vegetali. Attualmente, l’estinzioni delle specie, la riduzione degli areali e il depauperamento degli ecosistemi è da ricollegare alle attività dell’uomo. Per tali motivi, in questi ultimi decenni si è iniziato a dare importanza alla conservazione della biodiversità, alla creazione di zone protette e a sviluppare interventi di reintroduzione e rafforzamento di specie rare e a rischio di estinzione. Questo lavoro di tesi si propone di analizzare la variabilità genetica delle popolazioni di Rhododendron ferrugineum L. lungo il suo areale, con particolare attenzione alle aree marginali dell’Appennino, dove la specie rappresenta un caso di pseudo rarità, al fine di valutare lo stato di salute della specie al limite del suo areale e valutare appropriati interventi di conservazione o reintroduzione. Per effettuare le analisi sono stati messi a punto dei marcatori molecolari discontinui, i microsatelliti, che, essendo dei marcatori co-dominati, permettono di valutare differenti parametri legati alla diversità genetica delle popolazioni inclusi i livelli di eterozigotà ed il flusso genico tra popolazioni limitrofe. I campionamenti sono stati effettuati nelle uniche 3 stazioni presenti sugli Appennini. Al fine di confrontare la struttura genetica di queste popolazioni sono state considerate anche popolazioni delle Alpi Marittime, delle Alpi centro-orientali e dei Pirenei. L’analisi della diversità genetica effettuata su questo pool di popolazioni analizzate con 7 marcatori microsatelliti, ha messo in evidenza che le popolazioni relitte dell’Appennino Tosco-Emiliano presentano un ridotto livello di eterozigosità che suggerisce quindi un elevato livello di inbreeding. Si ritiene che ciò sia dovuto alla loro dislocazione sul territorio, che le rende isolate sia tra di loro che dalle popolazioni delle vicine Alpi Marittime. La stima delle relazioni genetiche tra le popolazioni appenniniche e le vicine piante alpine evidenzia come non vi sia scambio genetico tra le popolazioni. Le analisi dei cluster suggeriscono che due delle popolazioni Appenniniche siano più simili alle popolazioni della Alpi Marittime, mentre la terza ha più affinità con le popolazioni delle Alpi centro-orientali. Le popolazioni dei Pirenei risultano essere geneticamente più simili alle popolazioni delle Alpi Marittime, in particolare alle tre popolazioni del versante francese. In questo lavoro abbiamo affrontato anche il problema delle specie ibride. Rhododendron x intermedium Tausch è un ibrido frutto dell’incrocio tra Rhododendron ferrugineum L. e Rhododendron hirsutum L., in grado di incrociarsi sia con altri ibridi, sia con i parentali (fenomeno dell’introgressione). L’origine di questo ibrido risiede nella simpatria delle due specie parentali, che tuttavia, presentano esigenze ecologiche differenti. Ad oggi la presenza di Rhododendron x intermedium è stata accertata in almeno tre stazioni sulle Alpi Italiane, ma la letteratura documenta la sua presenza anche in altre zone dell’Arco Alpino. L’obiettivo di questa ricerca è stato quello di verificare la reale natura ibrida di Rhododendron x intermedium in queste stazioni utilizzando un approccio integrato ossia sia attraverso un’analisi di tipo morfologico sia attraverso un analisi di tipo molecolare. In particolare l’approccio molecolare ha previsto prima un’analisi filogenetica attraverso l’utilizzo di marcatori molecolari filogenetici nucleari e plastidiali (ITS, At103, psbA-trnH e matK) e quindi un’analisi della struttura delle popolazioni della specie ibrida attraverso l’utilizzo di marcatori molecolari microsatelliti. Da un’analisi morfologica, risulta che gli esemplari ibridi possono essere molto differenti tra loro e ciò supporta la formazione di sciami ibridi. Al fine di verificare la natura di questa specie e la struttura delle popolazioni ibride e dei rispettivi parentali, sono state campionate differenti popolazioni in tutta l’area di interesse. I campioni ottenuti sono stati quindi analizzati geneticamente mediante marcatori molecolari del DNA. I risultati ottenuti hanno permesso innanzitutto di confermare l’origine ibrida degli individui di prima generazione della specie Rhododendron x intermedium e quindi di distinguere i parentali dagli ibridi ed evidenziare la struttura genetica delle popolazioni ibride.
Resumo:
Con il termine neurofibromatosi (NF) si comprendono almeno sette malattie genetiche diverse ma accomunate dalla presenza di neurofibromi localizzati nei distretti cutaneo, orale, viscerale e scheletrico. Dal momento che la NF1 (malattia di Von Recklinghausen), una delle più diffuse malattie genetiche, può avere manifestazioni a livello orale, gli odontoiatri devono essere a conoscenza delle sue caratteristiche patognomoniche. Obiettivo della tesi è la ricerca di manifestazioni della NF1 a livello dell’apparato stomatognatico. Materiali e metodi 98 pazienti affetti da NF1 (44 maschi, 54 femmine dai 2 ai 24 anni; età media di 8,6 anni) sono stati indagati clinicamente e radiograficamente; clinicamente si sono valutati: prevalenza della patologia cariosa (dmft; DMFt), indice parodontale di comunità (CPI), anomalie dentali, presenza di lesioni a livello dei tessuti molli intraorali, presenza di patologie ortopedico-ortodontiche; presenza di abitudini viziate; sulle ortopantomografie eseguite su 49 pazienti (23 maschi, 26 femmine dai 6 ai 19 anni; età media di 10 anni) si sono valutate manifestazioni ossee e dentali caratteristiche della sindrome. Risultati Dallo studio è emerso che i pazienti affetti da NF1 presentano: dmft/DMFt e CPI elevati (dmft = 2,1; DMFt = 1,6; tessuti gengivali con sanguinamento nel 50% dei casi; eruzione dentale anticipata nel 10%; eruzione dentale ritardata nel 10%; taurodontismo nel 16%; patologie ortopedico-ortodontiche nel 40% (tendenza alla terza classe scheletrica, palato ogivale, morso aperto anteriore, morso coperto, morso crociato posteriore monolaterale, morso crociato posteriore bilaterale, linea mediana deviata, incompetenza labiale); abitudini viziate nel 27% (respirazione orali e deglutizione infantile); lesione neurofibromatosa della gengiva in un caso; per quanto riguarda la valutazione delle ortopantomografie, manifestazioni ossee caratteristiche della sindrome sono state evidenziate nel 28% dei casi (incisura coronoide deformata, processo coronoide ipoplasico o pseudoallungato, condilo ipoplasico, condilo iperplasico, canale mandibolare allargato, forame mandibolare allargato e alto, bordo inferiore della mandibola deformato). La necessità di programmi ed interventi di screening e follow-up periodici (visite odontoiatriche a partire dal momento della diagnosi a cadenza semestrale, esami radiografici a partire dai 6 anni di età a cadenza stabilita individualmente in funzione del livello di rischio) è supportata dall’elevato rischio di patologie cariosa e parodontale e dalla presenza di manifestazioni a livello dei tessuti duri e molli del distretto cefalico a documentato rischio di trasformazione maligna. Parole chiave: neurofibromatosi, patologie orali, distretto cefalico.
Resumo:
Il tema generale di ricerca oggetto della presente trattazione è rappresentato dal diritto di difesa nel procedimento de libertate. Esso costituisce un tema da sempre controverso, materia di vivaci e mai sopiti dibattiti sia in dottrina che in giurisprudenza, poiché si colloca in un punto nevralgico non solo del procedimento penale, ma, addirittura, dell’intero ordinamento giuridico di uno stato, poiché in esso si incontrano, e sovente si scontrano, le istanze di garanzia del cittadino contro indebite limitazioni ante iudicium della libertà personale, da un lato, e le esigenze di tutela della collettività e del processo dai pericula libertatis (inquinamento delle prove, rischio di fuga, pericolo di reiterazione dei reati), dall’altro. Detto in altri termini, il procedimento de libertate è esattamente il luogo in cui un ordinamento che voglia definirsi liberale, nella sua naturale e incessante evoluzione, tenta faticosamente di trovare un equilibrio tra autorità e libertà. Trattandosi, per ovvie ragioni, di un argomento vastissimo, che spazia dall’esercizio del diritto di difesa nella fase applicativa delle misure cautelari personali, alle impugnazioni delle misure medesime, dalla revoca o sostituzione delle stesse al giudicato cautelare sulle decisioni de libertate, etc., il campo della ricerca è stato circoscritto a due temi specifici che interessano direttamente il diritto di difesa, limitatamente alla fase dell’applicazione delle misure cautelari personali, e che presentano profili di originalità, per alcune importanti modifiche intervenute a livello sia di legislazione ordinaria che di legislazione costituzionale: 1) l’accertamento dei gravi indizi di colpevolezza; 2) il principio del contraddittorio nel procedimento cautelare, alla luce dell’art. 111 Cost. Siffatti temi, apparentemente disomogenei, sono, in realtà, profondamente correlati tra loro, rappresentando, per usare una locuzione spicciola, l’uno la “sostanza” e l’altro “la forma” del procedimento de libertate, ed insieme concorrono ad individuare un modello di giusto processo cautelare.