999 resultados para NTRU, LLL, reticoli, crittografia, sistemi a chiave pubblica.
Resumo:
Phase variable expression, mediated by high frequency reversible changes in the length of simple sequence repeats, facilitates adaptation of bacterial populations to changing environments and is frequently important in bacterial virulence. Here we elucidate a novel phase variable mechanism for NadA expression, an adhesin and invasin of Neisseria meningitidis. The NadR repressor protein binds to operators flanking the phase variable tract of the nadA promoter gene and contributes to the differential expression levels of phase variant promoters with different numbers of repeats, likely due to different spacing between operators. It is shown that IHF binds between these operators, and may permit looping of the promoter, allowing interaction of NadR at operators located distally or overlapping the promoter. The 4-hydroxyphenylacetic acid, a metabolite of aromatic amino acid catabolism that is secreted in saliva, induces nadA expression by inhibiting the DNA binding activity of the NadR repressor. When induced, only minor differences are evident between NadR-independent transcription levels of promoter phase variants, which are likely due to differential RNA polymerase contacts leading to altered promoter activity. These results suggest that NadA expression is under both stochastic and tight environmental-sensing regulatory control, and both regulations are mediated by the NadR repressor that and may be induced during colonization of the oropharynx where it plays a major role in the successful adhesion and invasion of the mucosa. Hence, simple sequence repeats in promoter regions may be a strategy used by host-adapted bacterial pathogens to randomly switch between expression states that may nonetheless still be induced by appropriate niche-specific signals.
Resumo:
Actual trends in software development are pushing the need to face a multiplicity of diverse activities and interaction styles characterizing complex and distributed application domains, in such a way that the resulting dynamics exhibits some grade of order, i.e. in terms of evolution of the system and desired equilibrium. Autonomous agents and Multiagent Systems are argued in literature as one of the most immediate approaches for describing such a kind of challenges. Actually, agent research seems to converge towards the definition of renewed abstraction tools aimed at better capturing the new demands of open systems. Besides agents, which are assumed as autonomous entities purposing a series of design objectives, Multiagent Systems account new notions as first-class entities, aimed, above all, at modeling institutional/organizational entities, placed for normative regulation, interaction and teamwork management, as well as environmental entities, placed as resources to further support and regulate agent work. The starting point of this thesis is recognizing that both organizations and environments can be rooted in a unifying perspective. Whereas recent research in agent systems seems to account a set of diverse approaches to specifically face with at least one aspect within the above mentioned, this work aims at proposing a unifying approach where both agents and their organizations can be straightforwardly situated in properly designed working environments. In this line, this work pursues reconciliation of environments with sociality, social interaction with environment based interaction, environmental resources with organizational functionalities with the aim to smoothly integrate the various aspects of complex and situated organizations in a coherent programming approach. Rooted in Agents and Artifacts (A&A) meta-model, which has been recently introduced both in the context of agent oriented software engineering and programming, the thesis promotes the notion of Embodied Organizations, characterized by computational infrastructures attaining a seamless integration between agents, organizations and environmental entities.
Resumo:
Il cervello è una rete di cellule nervose connesse da assoni e le cellule stesse sono reti di molecole connesse da reazioni biochimiche. Anche le società sono reti di persone collegate da rapporti di amicizia, parentela e legami professionali. Su più larga scala, catene alimentari ed ecosistemi possono essere rappresentati come reti di specie viventi. E le reti pervadono la tecnologia: Internet, reti elettriche e sistemi di trasporto non sono che pochi degli esempi possibili. Anche il linguaggio che si sta usando in questo momento per veicolare questi ragionamenti a chi legge è una rete, fatta di parole connesse da relazioni sintattiche. A dispetto dell'importanza e della pervasività delle reti, gli scienziati hanno sempre avuto poca comprensione delle loro strutture e proprietà. In che modo le interazioni di alcuni nodi non funzionanti in una complessa rete genetica possono generare il cancro? Come può avvenire così rapidamente la diffusione in taluni sistemi sociali e di comunicazioni, portando ad epidemie di malattie e a virus informatici? Come possono alcune reti continuare a funzionare anche dopo che la maggioranza dei loro nodi ha, invece, smesso di farlo? [...] Le reti reali sono realmente casuali?
Resumo:
This PhD thesis discusses the rationale for design and use of synthetic oligosaccharides for the development of glycoconjugate vaccines and the role of physicochemical methods in the characterization of these vaccines. The study concerns two infectious diseases that represent a serious problem for the national healthcare programs: human immunodeficiency virus (HIV) and Group A Streptococcus (GAS) infections. Both pathogens possess distinctive carbohydrate structures that have been described as suitable targets for the vaccine design. The Group A Streptococcus cell membrane polysaccharide (GAS-PS) is an attractive vaccine antigen candidate based on its conserved, constant expression pattern and the ability to confer immunoprotection in a relevant mouse model. Analysis of the immunogenic response within at-risk populations suggests an inverse correlation between high anti-GAS-PS antibody titres and GAS infection cases. Recent studies show that a chemically synthesized core polysaccharide-based antigen may represent an antigenic structural determinant of the large polysaccharide. Based on GAS-PS structural analysis, the study evaluates the potential to exploit a synthetic design approach to GAS vaccine development and compares the efficiency of synthetic antigens with the long isolated GAS polysaccharide. Synthetic GAS-PS structural analogues were specifically designed and generated to explore the impact of antigen length and terminal residue composition. For the HIV-1 glycoantigens, the dense glycan shield on the surface of the envelope protein gp120 was chosen as a target. This shield masks conserved protein epitopes and facilitates virus spread via binding to glycan receptors on susceptible host cells. The broadly neutralizing monoclonal antibody 2G12 binds a cluster of high-mannose oligosaccharides on the gp120 subunit of HIV-1 Env protein. This oligomannose epitope has been a subject to the synthetic vaccine development. The cluster nature of the 2G12 epitope suggested that multivalent antigen presentation was important to develop a carbohydrate based vaccine candidate. I describe the development of neoglycoconjugates displaying clustered HIV-1 related oligomannose carbohydrates and their immunogenic properties.
Resumo:
Bacterial capsular polysaccharides (PS) which naturally contain zwitterionic charge motifs (ZPS) possess specific immunostimulatory activity, leading to direct activation of antigen-presenting cells (APCs) through Toll-like receptor 2 (TLR2) and of T cells in co-culture systems. When administered intraperitoneally, ZPS and bacteria expressing them are involved in the induction or regulation of T-cell dependent inflammatory processes such as intra-abdominal abscess formation. Moreover it has been published that ZPSs are processed to low molecular weight carbohydrates and presented to T cells through a pathway similar to that used for protein antigens. These findings were in contrast with the paradigm according to which polysaccharides are T-independent antigens unable to be presented in association with MHC class II molecules and unable to induce a protective immune response. For this reason in glycoconjugate vaccines polysaccharides often need to be conjugated to a carrier protein to induce protection. The aim of our work was to generate vaccine candidates with antigen and adjuvant properties in one molecule by the chemical introduction of a positive charge into naturally anionic PS from group B streptococcus (GBS). The resulting zwitterionic PS (ZPS) has the ability to activate human and mouse APCs, and in mixed co-cultures of monocytes and T cells, ZPS induce MHC II-dependent T-cell proliferation and up-regulation of activation markers. TLR2 transfectants show reporter gene transcription upon incubation with ZPS and these stimulatory qualities can be blocked by anti-TLR2 mAbs or by the destruction of the zwitterionic motif. However, in vivo, ZPS used alone as vaccine antigen failed to induce protection against GBS challenge, a result which does not confirm the above mentioned postulate that ZPS are T-cell dependent Ags by virtue of their charge motif. Thus to make ZPS visible to the immune system we have conjugated ZPS with a carrier protein. ZPS-glycoconjugates induce higher T cell and Ab responses to carrier and PS, respectively, compared to control PS-glycoconjugates made with the native polysaccharide form. Moreover, protection of mothers or neonate offspring from lethal GBS challenge is better when mothers are immunized with ZPS-conjugates compared to immunization with PS-conjugates. In TLR2 knockout mice, ZPS-conjugates lose both their increased immunogenicity and protective effect after vaccination. When ZPS are co-administered as adjuvants with unconjugated tetanus toxoid (TT), they have the ability to increase the TT-specific antibody titer. In conclusion, glycoconjugates containing ZPS are potent vaccines. They target Ag to TLR2-expressing APCs and activate these APCs, leading to better T cell priming and ultimately to higher protective Ab titers. Thus, rational chemical design can generate potent novel PS-adjuvants with wide application, including glycoconjugates and co-administration with unrelated protein Ags.
Resumo:
In questa tesi ho analizzato le disposizioni legali che regolano l'associazionismo farmaceutico, oblligatorio o libero; corporativo o scientifico, e la sua relazione con i Sistemi Nazionali di Salute, dal punto di vista delle disposizioni vigenti nell'Unione Europea e le sue diverse applicazioni in due stati rappresentativi dell modello di amministrazione farmaceutica mediterranea, la Spagna e l`Italia, in comparazione con il modello anglosassone (Inghilterra). In primo luogo, si é presa in considerazione l'aggregazione professionale ufficiale dei farmacisti. In secondo luogo, sono analizzate le aggruppazioni economiche degli stessi professionisti e la loro relazione con i corrispondenti Sistemi di Salute. Questo lavoro pretende di mostrare una visione attuale di quello che é stato tradizionalmente l'essenza della professione farmaceutica dalle sue origini ( secolo XIII) e come essa si é inquadrata nei diversi stati grazie alla Pharmaceutical Care.
Resumo:
Lo stato attuale del mercato continua a dimostrare come l'interesse del pubblico verso i dispositivi mobili sia in costante crescita; se fino a pochi anni fa il termine smartphone era ai piu' privo di significato, ora e' abbastanza comune per giovani e adulti essere concentrati su piccoli dispositivi dove si possono contattare i clienti via e-mail, verificare lo stato di avanzamento dei processi aziendali, consultare il web e cosi' via. L'obiettivo di questa tesi e' introdurre l'utilizzo di diverse tipologie di framework, prendendo come riferimento i sistemi operativi per i dispositivi mobili e quello di presentare soluzioni (attraverso i framework) per lo sviluppo di applicazioni mobili su diverse piattaforme software.
Resumo:
Lo scopo di questa dissertazione è quello di costruire un modello di promozione della salute nel contesto di lavoro in relazione al consumo di sostanze psicoattive fra lavoratori, attraverso il confronto tra la situazione italiana e inglese. L’ipotesi di fondo rimanda all’idea che i luoghi di lavoro possano rappresentare setting d’elezione per i progetti di prevenzione non solo perché alcuni studi dimostrano l’esistenza di fattori di rischio connessi alla mansione rispetto alle condotte relative allo stile di vita, ma anche perché il consumo di alcol e droghe è altamente diffuso tra i lavoratori e questo comporta rischi per la sicurezza e la salute personale nonché quella dei colleghi di lavoro. Si tratta quindi di indagare il rapporto tra contesto lavorativo e utilizzo di sostanze al fine di suggerire alla luce degli studi internazionali in materia e delle riflessioni condotte dai soggetti coinvolti nella ricerca che si andrà a presentare linee guida e indicazioni operative per la realizzazione di interventi di promozione alla salute nei contesti professionali. A tal fine, saranno analizzati gli esiti di 13 focus group che hanno coinvolto esperti italiani e 6 interviste somministrate a esperti inglesi volti a definire la situazione attuale in Italia e Gran Bretagna in materia di prevenzione del consumo di alcol e droghe nei luoghi di lavoro. In particolare, l’analisi verterà sulle seguenti aree: - Percezione circa la diffusione dei consumi nei luoghi di lavoro - Presentazione delle politiche adottate, in logica comparativa, tra i due paesi. - Analisi critica degli interventi e problematiche aperte. L’analisi del materiale empirico permette di delineare due modelli costruiti sulla base dei focus group e delle interviste: - in Italia si può affermare che prevalga il cd. modello della sicurezza: di recente trasformazione, questo sistema enfatizza la dimensione del controllo, tanto che si parla di sorveglianza sanitaria. É orientato alla sicurezza concepita quale rimozione dei fattori di rischio. Il consumo di sostanze (anche sporadico) è inteso quale espressione di una patologia che richiede l’intervento sanitario secondo modalità previste dal quadro normativo: una procedura che annulla la discrezionalità sia del datore di lavoro sia del medico competente. Si connota inoltre per contraddizioni interne e trasversali rispetto alle categorie lavorative (i controlli non si applicano alle professioni associate a maggiore prestigio sociale sebbene palesemente associate a rischio, come per esempio i medici) e alle sostanze (atteggiamento repressivo soprattutto verso le droghe illegali); - in Gran Bretagna, invece, il modello si configura come responsabilità bilaterale: secondo questo modello, se è vero che il datore di lavoro può decidere in merito all’attuazione di misure preventive in materia di alcol e droghe nei luoghi di lavoro, egli è ritenuto responsabile della mancata vigilanza. D’altro canto, il lavoratore che non rispetta quanto previsto nella politica scritta può essere soggetto a licenziamento per motivi disciplinari. Questo modello, particolarmente attento al consumo di tutte le sostanze psicoattive (legali e illegali), considera il consumo quale esito di una libera scelta individuale attraverso la quale il lavoratore decide di consumare alcol e droghe così come decide di dedicarsi ad altre condotte a rischio. Si propone di ri-orientare le strategie analizzate nei due paesi europei presi in esame attraverso la realizzazione di un modello della promozione della salute fondato su alcuni punti chiave: – coinvolgimento di tutti i lavoratori (e non solo coloro che svolgono mansioni a rischio per la sicurezza) al fine di promuovere benessere secondo un approccio olistico di salute, orientato ad intervenire non soltanto in materia di consumo di sostanze psicoattive (legali e illegali), ma più in generale sulle condotte a rischio; – compartecipazione nelle diverse fasi (programmazione, realizzazione e valutazione del progetto) del lavoratore, datore di lavoro e medico competente secondo una logica di flessibilità, responsabilizzazione condivisa fra i diversi attori, personalizzazione e co-gestione dell’intervento; – azione volta a promuovere i fattori di protezione agendo simultaneamente sul contrasto dei fattori di rischio (stress, alienazione, scarso riconoscimento del ruolo svolto), attraverso interventi che integrano diverse strategie operative alla luce delle evidenze scientifiche (Evidence-Based Prevention); – ricorso a strumenti di controllo (drug testing) subordinato all’esigenza di tutelare l’incolumità fisica del lavoratore e dei colleghi, da attuarsi sempre e comunque attraverso prassi che non violino la privacy e attraverso strumenti in grado di verificare l’effettivo stato di alterazione psico-fisica sul luogo di lavoro; – demedicalizzazione delle situazioni di consumo che non richiedono un intervento prettamente sanitario, ma che al contrario potrebbero essere affrontate attraverso azioni incentrate sul care anziché la cure; – messa a disposizione di servizi ad hoc con funzione di supporto, counselling, orientamento per i lavoratori, non stigmatizzanti e con operatori di formazione non solamente sanitaria, sull’esempio degli EAPs (Employee Assistence Programs) statunitensi. Si ritiene che questo modello possa trasformare i contesti di lavoro da agenzie di controllo orientate alla sicurezza a luoghi di intervento orientati al benessere attraverso un’azione sinergica e congiunta volta a promuovere i fattori di protezione a discapito di quelli di rischio in modo tale da intervenire non soltanto sul consumo di sostanze psicotrope, ma più in generale sullo stile di vita che influenza la salute complessiva.
Resumo:
Il panorama delle aziende italiane è costellato da una moltitudine di piccoli attori largamente specializzati in mansioni definite. Sono le piccole e le medie imprese (PMI), aziende per lo più familiari e con meno di qualche decina di dipendenti, talvolta con un'importante storia alle loro spalle che, nonostante la crisi e l'avvento di Internet, sono riuscite a rimanere leader incontrastati nel loro settore. È proprio Internet infatti uno dei pericoli più grandi per esse. Settori che in passato erano presenti offline, negli uffici dove ci si rivolgeva per l'erogazione del servizio richiesto, oggi godono di una fortissima se non predominante attività online, come il settore della ricerca e della selezione del personale. Questo settore, in particolare, ha subito tutta l'influenza di Internet. Annunci, ricerche di lavoro, consulenze, sono quasi totalmente presenti attraverso il canale online. Tale cambiamento ha portato ad una scossa nel mercato, cambiando le modalità di offerta e di domanda dei servizi, determinando chi dovesse sopravvivere e chi no. È Internet stessa ad offrire uno strumento fondamentale per la rivalutazione delle proprie attività e il ritorno di piccole imprese a guidare il mercato, soprattutto nelle realtà locali. Riuscire ad avere il coraggio di affrontare il cambiamento che Internet impone, riorganizzando il proprio lavoro e la propria struttura, è oggi un trampolino di lancio per competere con i grandi head hunter del settore, con aziende del calibro di Monster che sembrano ormai irrangiungibili. Li pensiamo irrangiungibili perché dominanti nei motori di ricerca: sistemi che veicolano attraverso di essi l'informazione e che oggi sono lo strumento che tutti noi quotidianamente utilizziamo per raggiungere le aziende e i loro servizi. I motori di ricerca sono però anche il luogo più democratico della rete. Non sono i soldi o la forza numerica data dell'essere una grande azienda a determinare il posizionamento in essi. È invece la capacità di inviduare e focalizzare il proprio core business che offre la possibilità di primeggiare tra le realtà locali, siano esse a livello provinciale o regionale ad esempio. In queste realtà, in questi settori, non sono i grandi attori internazionali ad avere più possibilità di successo ma sono le attività vicine al territorio ad esserne i leader. Capire questo e agire sulle leve che permettano alle PMI di dirigere il mercato è l'obiettivo di questa tesi. La tesi inizia con una analisi dei principali motori di ricerca italiani, di come sono strutturati e come essi riescono a valutare chi possa essere presente per una determinata keyword e chi non possa esserlo ma soprattutto la qualità attribuita e la posizione assunta. L'argomentazione viene sviluppata su due differenti percorsi: il primo analitico, dove vengono presentati i motori di ricerca, i loro algoritmi, la loro storia e la loro evoluzione futura, per capire come poter essere presenti oggi e come poter esserlo domani. La seconda parte è invece operativa, analizzando Teseo: un'agenzia di ricerca e selezione del personale operante a livello regionale nell'Emilia Romagna e fortemente specializzata in alcune attività molto specifiche. E' stato prodotto un prototipo di sito studiando i punti di forza e le debolezze di sistemi come WordPress e, infine, il lavoro punta alla sua messa online, al confronto tra i risultati raggiunti dal vecchio sito e quelli ottenuti con il nuovo, con una parte finale dedicata a delle attività collaterali e alla valutazione di strategie future sul lungo periodo. Nel settore della ricerca e della selezione del personale via Internet, come può una PMI sopravvivere contro i grandi head hunter?
Resumo:
Dopo aver brevemente ricostruito l’evoluzione dell’istituto dell’incompatibilità nel pubblico impiego, tra la sua introduzione nell’Ordinamento italiano nel 1908 e la sua attuale formulazione (attraverso le riforme del 1923 e del 1957), l’autore –contestando un’opinione diffusa nella letteratura giuslavoristica- esclude che l’art. 98 Cost. obblighi il legislatore ordinario ad imporre un dovere di esclusività al lavoratore dipendente dalle pubbliche amministrazioni. Successivamente si osserva come nel corso di più di un secolo la Dottrina, comunque poco interessata al tema, non abbia saputo giustificare in maniera unitaria e coerente la disciplina delle incompatibilità (se non ricorrendo ad argomentazioni di natura etica o sociale); diversamente la Giurisprudenza, soprattutto in epoca repubblicana, ha cercato di ricondurre la ratio dell’istituto alla specificità del rapporto lavorativo, riuscendo a giustificare le previsioni (e a individuarne i confini di applicazione) solo in relazione alla specialità del rapporto di lavoro pubblico. Nel secondo capitolo si evidenzia come, in occasione della riforma di fine XX secolo, la scelta di riservare alla legge la disciplina delle incompatibilità nel pubblico impiego non sia necessariamente in contrasto con la privatizzazione del lavoro pubblico. Si descrivono inoltre le linee generali dell’istituto, evidenziandone gli aspetti problematici (in particolare rapporto tra art. 53 del D.Lgvo 165/01 e l’art. 1 commi 57 e ss. della L. 662/96) e la collocazione nell’ambito complessivo della riforma di privatizzazione (con particolare attenzione al tema della natura degli atti). Nell’ultimo capitolo, si evidenziano le criticità della disciplina vigente, anche alla luce della discutibile interpretazione datane dalla Corte di Cassazione. In particolare si sottolinea come il sistema sanzionatorio non sia coerente con la contrattualizzazione del rapporto di lavoro e mantenga una forte connotazione pubblicistica. Si rileva quindi come le critiche all’istituto si possano sostanzialmente ricondurre al fatto che il legislatore, mantenendo in vita un istituto risalente e riconducibile a esigenze di varia natura, non ha individuato univocamente nè il fine ultimo delle norme nè quale sia il bene che si intende proteggere; in tal modo si è disegnato un sistema che vieta irragionevolmente le sole attività remunerative, implica una profonda differenziazione pubblico/privato, comporta un sacrificio significativo per il lavoratore pubblico. Dopo aver negato la possibilità di ricondurre l’istituto alle previsioni di cui all’art. 2105 c.c., l’autore, riflettendo sulle ragioni fondanti l’esistenza di tale ultima previsione e in considerazione del dato incontrovertibile che oggi l’ordinamento fonda sul contratto sia i rapporti di impiego pubblico sia quelli di impiego privato, giunge ad individuare un unitario principio secondo il quale è illecito lo svolgimento, da parte del lavoratore, di attività inconciliabili con gli interessi che costituiscono la giustificazione profonda dell’attività del datore di lavoro. Si tratterebbe, insomma, di “un generale principio di tutela dell’interesse pubblico al regolare svolgimento dell’attività del datore, che si concretizza in entrambi i casi nel sorgere di obbligazioni negative (di non fare/di astenersi) in capo al lavoratore, riferite alle attività concorrenziali e a quelle incompatibili”(Cap III, 3.3) rispettivamente nel privato e nel pubblico Alla luce della esposta conclusione, l’autore auspica che tutto il sistema delle incompatibilità venga ridisegnato in una prospettiva che tenga conto dell’esigenza di uniformare al massimo le regole che governano il lavoro, indipendentemente dalla soggettività (pubblica o privata) dei datori. Un simile obiettivo, in termini di coerenza ed efficacia, appare perseguibile a partire dal modello disegnato dall’art. 53 del D.Lgvo 165/01 in materia di incarichi autorizzabili.
Resumo:
Oggetto della ricerca è la tematica dell’opposizione parlamentare ed in particolare, il manifestarsi della stessa attraverso l’ostruzionismo praticato nelle assemblee legislative. La comprensione della funzione oppositoria è stata raggiunta assumendo come primigenio modello di riferimento l’esperienza presente nel sistema parlamentare inglese nel quale la dialettica democratica si svolge tra schieramenti nettamente contrapposti. L’approfondimento della figura oppositoria, poi, si è snodata nello studio delle diverse tipologie di opposizione conosciute nelle moderne democrazie, nonchè nella valutazione dei diversi livelli di riconoscimento che questa assume nei moderni contesti giuridici. Passando specificamente all’analisi dell’ostruzionismo parlamentare, la ricerca ha preliminarmente privilegiato lo studio dei soggetti che lo pongono in essere e del movente e delle finalità perseguite attraverso questa estrema forma di contestazione politica. Lo studio delle attività ostruzionistiche ha altresì valutato le modalità di esercizio ed i mezzi impiegati nella sua realizzazione, nonché le questioni di legittimità connesse a tale pratica. Ma è stata l’analisi dei regolamenti parlamentari, che com’è noto hanno subito le più incisive modificazioni quasi sempre in rapporto ad importanti episodi di ostruzionismo, a rappresentare il momento centrale del lavoro. Dopo la stagione di ostruzionismo esasperato degli anni settanta, all’interno del Parlamento sono cambiate le “regole del gioco” (considerate eccessivamente garantiste per le minoranze), in funzione dell’uso e non più dell’abuso del tempo da parte di tutti i soggetti istituzionali. L’effetto di tali riforme è stato quello di riqualificare la dialettica tra maggioranza ed opposizione, in particolare garantendo alla prima strumenti efficaci per conseguire il programma di Governo ed alla seconda strumenti che consentano di rendere visibili le proposte legislative alternative più qualificate. L’analisi dell’atteggiamento politico dell’opposizione parlamentare è stata altresì valutata alla luce degli effetti prodotti dalle ultime riforme elettorali e dalla loro incidenza sulle manifestazioni ostruzionistiche. La transizione (sia pure incompiuta) della forma di governo, attuata attraverso la trasformazione del sistema elettorale, ha segnato il passaggio da un sistema multipolare ad uno bipolare, con i conseguenti riflessi che si sono prodotti sui rapporti di forza tra maggioranza e opposizione. Nell’attuale logica bipolare, rimasta comunque immutata nonostante il ritorno ad un sistema elettorale nuovamente proporzionale caratterizzato dal premio di maggioranza, la riforma elettorale non ha lasciato indifferente l’atteggiarsi dell’ostruzionismo: il maggior potere, non solo numerico, che la maggioranza parlamentare è venuta ad assumere, ha spostato gli equilibri all’interno degli organi elettivi consentendo un’identificazione tra minoranza ed opposizione. Nel capitolo dedicato all’analisi dei regolamenti parlamentari è stata offerta una ricostruzione descrittiva dell’evoluzione subita dai regolamenti ed una di comparazione diacronica dei rimedi progressivamente adottati negli stessi per fronteggiare le possibili manifestazioni ostruzionistiche. Nella prospettiva di evidenziare le attuali dinamiche parlamentari, è stata affrontata una ricostruzione in chiave evolutiva subita dai regolamenti a partire dalla fase pre-repubblicana, fino ai regolamenti attualmente vigenti, ricomprendendo altresì le proposte di modifica allo stato in discussione in Parlamento. Dall’analisi complessiva è emerso che la debole razionalizzazione della forma di governo, il bicameralismo paritario ed indifferenziato, l’assenza di una riserva normativa a favore del governo e di strumenti giuridici per incidere sull’attività del Parlamento, hanno fatto sì che fossero i regolamenti parlamentari a dover supplire alla scarna disciplina costituzionale. A fronte della lenta ed incompiuta transizione della forma di governo parlamentare e dell’evolversi delle tecniche ostruzionistiche, si sono di conseguenza adeguate le misure di contenimento disciplinate nei regolamenti parlamentari. In questi ultimi dunque, è possibile rintracciare l’excursus storico delle misure adottate per regolare i possibili strumenti ostruzionistici previsti e disciplinati nelle procedure ed impiegati dalle minoranze per tentare di impedire la decisione finale. La comparazione, invece, ha evidenziato una progressiva opera di contenimento dei fenomeni ostruzionistici ottenuta essenzialmente con la razionalizzazione delle procedure parlamentari, l’introduzione del metodo della programmazione, del contingentamento dei tempi, nonché l’ampliamento dei poteri discrezionali dei Presidenti di assemblea nella loro opera di garanti della corretta dialettica parlamentare. A completamento del lavoro svolto è stato infine determinante la considerazione della concreta prassi parlamentare riscontrata nel corso delle legislature maggioritarie: la valutazione complessiva dei dati provenienti dal Servizio Studi della Camera, infatti, ha permesso di verificare come si sono manifestate in pratica le tecniche ostruzionistiche impiegate dall’opposizione per contrastare le politiche della maggioranza nel corso della XIII e della XIV Legislatura.
Resumo:
PRESUPPOSTI: Le tachicardie atriali sono comuni nei GUCH sia dopo intervento correttivo o palliativo che in storia naturale, ma l’incidenza è significativamente più elevata nei pazienti sottoposti ad interventi che prevedono un’estesa manipolazione atriale (Mustard, Senning, Fontan). Il meccanismo più frequente delle tachicardie atriali nel paziente congenito adulto è il macrorientro atriale destro. L’ECG è poco utile nella previsione della localizzazione del circuito di rientro. Nei pazienti con cardiopatia congenita sottoposta a correzione biventricolare o in storia naturale il rientro peritricuspidale costituisce il circuito più frequente, invece nei pazienti con esiti di intervento di Fontan la sede più comune di macrorientro è la parete laterale dell’atrio destro. I farmaci antiaritmici sono poco efficaci nel trattamento di tali aritmie e comportano un’elevata incidenza di effetti avversi, soprattutto l’aggravamento della disfunzione sinusale preesistente ed il peggioramento della disfunzione ventricolare, e di effetti proaritmici. Vari studi hanno dimostrato la possibilità di trattare efficacemente le IART mediante l’ablazione transcatetere. I primi studi in cui le procedure venivano realizzate mediante fluoroscopia tradizionale, la documentazione di blocco di conduzione translesionale bidirezionale non era routinariamente eseguita e non tutti i circuiti di rientro venivano sottoposti ad ablazione, riportano un successo in acuto del 70% e una libertà da recidiva a 3 anni del 40%. I lavori più recenti riportano un successo in acuto del 94% ed un tasso di recidiva a 13 mesi del 6%. Questi ottimi risultati sono stati ottenuti con l’utilizzo delle moderne tecniche di mappaggio elettroanatomico e di cateteri muniti di sistemi di irrigazione per il raffreddamento della punta, inoltre la dimostrazione della presenza di blocco di conduzione translesionale bidirezionale, l’ablazione di tutti i circuiti indotti mediante stimolazione atriale programmata, nonché delle sedi potenziali di rientro identificate alla mappa di voltaggio sono stati considerati requisiti indispensabili per la definizione del successo della procedura. OBIETTIVI: riportare il tasso di efficia, le complicanze, ed il tasso di recidiva delle procedure di ablazione transcatetere eseguite con le moderne tecnologie e con una rigorosa strategia di programmazione degli obiettivi della procedura. Risultati: Questo studio riporta una buona percentuale di efficacia dell’ablazione transcatetere delle tachicardie atriali in una popolazione varia di pazienti con cardiopatia congenita operata ed in storia naturale: la percentuale di successo completo della procedura in acuto è del 71%, il tasso di recidiva ad un follow-up medio di 13 mesi è pari al 28%. Tuttavia se l’analisi viene limitata esclusivamente alle IART il successo della procedura è pari al 100%, i restanti casi in cui la procedura è stata definita inefficace o parzialmente efficace l’aritmia non eliminata ma cardiovertita elettricamente non è un’aritmia da rientro ma la fibrillazione atriale. Inoltre, sempre limitando l’analisi alle IART, anche il tasso di recidiva a 13 mesi si abbassa dal 28% al 3%. In un solo paziente è stato possibile documentare un episodio asintomatico e non sostenuto di IART al follow-up: in questo caso l’aspetto ECG era diverso dalla tachicardia clinica che aveva motivato la prima procedura. Sebbene la diversa morfologia dell’attivazione atriale all’ECG non escluda che si tratti di una recidiva, data la possibilità di un diverso exit point del medesimo circuito o di un diverso senso di rotazione dello stesso, è tuttavia più probabile l’emergenza di un nuovo circuito di macrorientro. CONCLUSIONI: L'ablazione trancatetere, pur non potendo essere considerata una procedura curativa, in quanto non in grado di modificare il substrato atriale che predispone all’insorgenza e mantenimento della fibrillazione atriale (ossia la fibrosi, l’ipertrofia, e la dilatazione atriale conseguenti alla patologia e condizione anatomica di base)è in grado di assicurare a tutti i pazienti un sostanziale beneficio clinico. È sempre stato possibile sospendere l’antiaritmico, tranne 2 casi, ed anche nei pazienti in cui è stata documentata una recidiva al follow-up la qualità di vita ed i sintomi sono decisamente migliorati ed è stato ottenuto un buon controllo della tachiaritmia con una bassa dose di beta-bloccante. Inoltre tutti i pazienti che avevano sviluppato disfunzione ventricolare secondaria alla tachiaritmia hanno presentato un miglioramento della funzione sistolica fino alla normalizzazione o al ritorno a valori precedenti la documentazione dell’aritmia. Alla base dei buoni risultati sia in acuto che al follow-up c’è una meticolosa programmazione della procedura e una rigorosa definizione degli endpoint. La dimostrazione del blocco di conduzione translesionale bidirezionale, requisito indispensabile per affermare di aver creato una linea continua e transmurale, l’ablazione di tutti i circuiti di rientro inducibili mediante stimolazione atriale programmata e sostenuti, e l’ablazione di alcune sedi critiche, in quanto corridoi protetti coinvolti nelle IART di più comune osservazione clinica, pur in assenza di una effettiva inducibilità periprocedurale, sono obiettivi necessari per una procedura efficace in acuto e a distanza. Anche la disponibilità di moderne tecnologie come i sistemi di irrigazione dei cateteri ablatori e le metodiche di mappaggio elettroanantomico sono requisiti tecnici molto importanti per il successo della procedura.
Resumo:
Generic programming is likely to become a new challenge for a critical mass of developers. Therefore, it is crucial to refine the support for generic programming in mainstream Object-Oriented languages — both at the design and at the implementation level — as well as to suggest novel ways to exploit the additional degree of expressiveness made available by genericity. This study is meant to provide a contribution towards bringing Java genericity to a more mature stage with respect to mainstream programming practice, by increasing the effectiveness of its implementation, and by revealing its full expressive power in real world scenario. With respect to the current research setting, the main contribution of the thesis is twofold. First, we propose a revised implementation for Java generics that greatly increases the expressiveness of the Java platform by adding reification support for generic types. Secondly, we show how Java genericity can be leveraged in a real world case-study in the context of the multi-paradigm language integration. Several approaches have been proposed in order to overcome the lack of reification of generic types in the Java programming language. Existing approaches tackle the problem of reification of generic types by defining new translation techniques which would allow for a runtime representation of generics and wildcards. Unfortunately most approaches suffer from several problems: heterogeneous translations are known to be problematic when considering reification of generic methods and wildcards. On the other hand, more sophisticated techniques requiring changes in the Java runtime, supports reified generics through a true language extension (where clauses) so that backward compatibility is compromised. In this thesis we develop a sophisticated type-passing technique for addressing the problem of reification of generic types in the Java programming language; this approach — first pioneered by the so called EGO translator — is here turned into a full-blown solution which reifies generic types inside the Java Virtual Machine (JVM) itself, thus overcoming both performance penalties and compatibility issues of the original EGO translator. Java-Prolog integration Integrating Object-Oriented and declarative programming has been the subject of several researches and corresponding technologies. Such proposals come in two flavours, either attempting at joining the two paradigms, or simply providing an interface library for accessing Prolog declarative features from a mainstream Object-Oriented languages such as Java. Both solutions have however drawbacks: in the case of hybrid languages featuring both Object-Oriented and logic traits, such resulting language is typically too complex, thus making mainstream application development an harder task; in the case of library-based integration approaches there is no true language integration, and some “boilerplate code” has to be implemented to fix the paradigm mismatch. In this thesis we develop a framework called PatJ which promotes seamless exploitation of Prolog programming in Java. A sophisticated usage of generics/wildcards allows to define a precise mapping between Object-Oriented and declarative features. PatJ defines a hierarchy of classes where the bidirectional semantics of Prolog terms is modelled directly at the level of the Java generic type-system.
Resumo:
Sebbene Anarsia lineatella sia un fitofago ormai da anni introdotto e diffuso in Italia, ancora poco si conosce circa le sue abitudini riproduttive. In considerazione della elevata dannosità di A. lineatella nei pescheti del nord Italia e delle scarse conoscenze sulla sua biologia, si è evidenziata la necessità di approfondire la conoscenza di questo fitofago. Pertanto gli scopi di questa ricerca hanno riguardato l’approfondimento delle conoscenze sui sistemi di comunicazione intraspecifici utilizzati da A. lineatella; la valutazione dell’efficacia di diverse miscele di feromone sintetico, in laboratorio utilizzando anche densità diverse di popolazioni di anarsia e in campo utilizzando gabbie di accoppiamento appositamente costruite, posizionate in frutteti a conduzione biologica nel nord Italia e messe a confronto con gabbie che utilizzavano come fonte attrattiva femmine vergini di tre giorni di età. Sono state condotte prove sul comportamento di maschi di A. lineatella di differenti età in risposta al feromone emesso da femmine vergini di tre giorni di età e al feromone emesso da erogatori di materiale plastico contenenti differenti miscele di feromone sintetico. Sono stati condotti studi per verificare l’influenza del contenuto di alcol ((E)5-10:OH) nella miscela feromonica sulla capacità di inibizione degli accoppiamenti, sottoponendo gli insetti a differenti concentrazioni di feromone in modo da verificare eventuali differenze di attività delle diverse miscele, differenze che emergerebbero con evidenza maggiore alle minori concentrazioni. Alcune prove sono state effettuate anche con differenti densità di popolazione, poiché una maggiore densità di popolazione determina una maggiore probabilità di accoppiamento, evidenziando più chiaramente i limiti di efficacia della miscela utilizzata. Inoltre sono state effettuate prove di campo per confrontare due modelli di erogatore per la confusione sessuale di anarsia contenenti miscele con differenti percentuali di alcol Inoltre, poiché nei pescheti la presenza di A. lineatella è pressoché sempre associata a quella di Cydia molesta e l’applicazione del metodo della confusione deve spesso essere applicato per controllare entrambi gli insetti, può risultare vantaggioso disporre di un unico erogatore contenente entrambi i feromoni; è stato quindi valutato un erogatore contenente una miscela dei due feromoni per verificare eventuali interazioni che possano ridurre l’efficacia.
Resumo:
This study focus on pathologies - caused by impoverished uranium and other heavy-metals’ nanoparticles environmental pollution - developed in international military personnel deployed in critical areas; the pathologies are then placed in a general and chronological schema. This study shows an impressive collection of data on impoverished uranium characteristics and its employment in civil and military context and a map of impoverished uranium most polluted areas. The studies on this subject commissioned by two Italian Parliamentary Court of Inquiry and by other nations are then analyzed. Further etiopathogenetic hypothesis are assessed – as multivaccination – comparing vaccination protocols adopted by different NATO nations and their possible effects. Finally the study defines the objectives and the operational protocols of an ongoing epidemiological serial prospective study (time-frame scheduled of 30 years) on military personnel deployed in critical areas for the possible presence of genotoxic agents.