566 resultados para Crittografia Computazionale Generatori Pseudocasuali Dimostrazione Automatica CryptoVerif
Resumo:
La prima parte del nostro studio riguarda la tecnica LAMP (Loop-mediated isothermal amplification), una tecnica di amplificazione isotermica recentemente inventata (Notomi et al., 2000). Essa presenta notevoli vantaggi rispetto alle tradizionali PCR: non necessita di strumentazioni sofisticate come i termociclatori, può essere eseguita da personale non specializzato, è una tecnica altamente sensibile e specifica ed è molto tollerante agli inibitori. Tutte queste caratteristiche fanno sì che essa possa essere utilizzata al di fuori dei laboratori diagnostici, come POCT (Point of care testing), con il vantaggio di non dover gestire la spedizione del campione e di avere in tempi molto brevi risultati paragonabili a quelli ottenuti con la tradizionale PCR. Sono state prese in considerazione malattie infettive sostenute da batteri che richiedono tempi molto lunghi per la coltivazione o che non sono addirittura coltivabili. Sono stati disegnati dei saggi per la diagnosi di patologie virali che necessitano di diagnosi tempestiva. Altri test messi a punto riguardano malattie genetiche del cane e due batteri d’interesse agro-alimentare. Tutte le prove sono state condotte con tecnica real-time per diminuire il rischio di cross-contaminazione pur riuscendo a comprendere in maniera approfondita l’andamento delle reazioni. Infine è stato messo a punto un metodo di visualizzazione colorimetrico utilizzabile con tutti i saggi messi a punto, che svincola completamente la reazione LAMP dall’esecuzione in un laboratorio specializzato. Il secondo capitolo riguarda lo studio dal punto di vista molecolare di un soggetto che presenza totale assenza di attività mieloperossidasica all’analisi di citochimica automatica (ADVIA® 2120 Hematology System). Lo studio è stato condotto attraverso amplificazione e confronto dei prodotti di PCR ottenuti sul soggetto patologico e su due soggetti con fenotipo wild-type. Si è poi provveduto al sequenziamento dei prodotti di PCR su sequenziatore automatico al fine di ricercare la mutazione responsabile della carenza di MPO nel soggetto indicato.
Resumo:
La città ready-made. Partecipazione, relazione e azione nel ‘900 è un percorso storico-critico che si snoda lungo tutto il ‘900 alla ricerca degli episodi in cui è possibile riscontrare la partecipazione nelle pratiche estetiche di diverse generazioni di artisti; per imbastire un racconto puntuale e sistematico, inoltre, si è ricorsi ad una metafora genetica che ha riscontrato una fase — corrispondente alla prima metà del secolo — in cui il cromosoma responsabile di tale afflato partecipativo è risultato recessivo e un’altra — corrispondente stavolta alla seconda metà, più o meno dagli anni ’60 ai ’90 — in cui si è potuto registrare, altresì, una dominanza. Ad influire su questi fenomeni e sul loro svolgimento nei decenni, i protagonisti assoluti di questa trattazione: la Città e il Pubblico che, di volta in volta, facendo sentire la loro presenza o facendola venir meno, hanno dettato l’agenda della socio-relazionalità nel ‘900. Si è, inoltre, provveduto a rileggere alcuni episodi estetici al fine di evidenziarne un andamento ciclico e di ripetizione: mentre nella prima metà della ricerca si è scovato il seme della socio-relazionalità nelle visite e nelle derive di dadaisti e situazionisti, nella seconda ci si è concentrati sull’ampia produzione dei collettivi artistici di New York negli anni ’70. A dimostrazione di come la relazionalità non sia un fenomeno esclusivamente legato alla pratica dell’arte degli anni ’90, ma che, con le opportune distinzioni generazionali, è possibile riscontrarne le tracce in tutta la contemporaneità.
Resumo:
Oggetto del presente studio è il progetto di ricostruzione del centro urbano di Le Havre ad opera di Auguste Perret. Suo obiettivo è il riconoscimento di quell’idea di città posta a fondamento del progetto, per il quale ci si propone di indagare il senso e le grammatiche costitutive della sua forma. Quella di Le Havre costituisce una dimostrazione di come una forma urbana ancora compatta ed evocativa della città storica possa definirsi a partire dalle relazioni stabilite con gli elementi della geografia fisica. Nei suoi luoghi collettivi e monumentali, che rimandano chiaramente a una cultura dell’abitare che affonda le proprie radici nella più generale esperienza della costruzione della città francese, la città riconosce un valore formale e sceglie di rappresentare il proprio mondo civico dinanzi a quei grandi elementi della geografia fisica che costituiscono l’identità del luogo nel quale questa si colloca. Sembra infatti possibile affermare che gli spazi pubblici della città atlantica riconoscano e traducano nella forma della Place de l’Hôtel de Ville le ripide pendici della falesia del Bec-de-Caux, in quella della Porte Océane l’orizzonte lontano dell’Oceano, e nel Front-de-mer Sud l’altra riva dell’estuario della Senna. Questa relazione fondativa sembra essere conseguita anche attraverso la definizione di un’appropriata grammatica dello spazio urbano, la cui significatività è nel fondarsi sull’assunzione, allo stesso tempo, del valore dello spazio circoscritto e del valore dello spazio aperto. La riflessione sullo spazio urbano investe anche la costruzione dell’isolato, sottoposto a una necessaria rifondazione di forma e significato, allo scopo di rendere intellegibile le relazioni tra gli spazi finiti della città e quelli infiniti della natura. La definizione dell’identità dello spazio urbano, sembra fondarsi, in ultima analisi, sulle possibilità espressive delle forme della costruzione che, connotate come forme dell’architettura, definiscono il carattere dei tipi edilizi e dello spazio da questi costruito.
Resumo:
L’argomento trattato in questo elaborato riguarda una nuova tecnologia che si sta sviluppando nell’ambito dell’ingegneria dei tessuti: il Bioprinting. Tale rivoluzionario approccio completamente automatizzato, grazie all’utilizzo dell’elaborazione automatica delle immagini CAD (Computer Aided Design) e la fabbricazione assistita al calcolatore CAM (Computer Aided Manufacturing), si propone di ricreare tessuti e/o organi. In particolare nel seguito ne verrà data una definizione e ne verranno definiti i campi di applicazione, per poi proseguire con un’analisi del processo dal punto di vista delle fasi che lo compongono e la speciale tecnologia utilizzata. Infine verrà proposto qualche studio fatto in merito ai tessuti vascolari e alla cartilagine per poi concludere con i pionieri che tuttora contribuiscono al suo sviluppo e con Organovo, una delle aziende leader del settore.
Resumo:
The application of dexterous robotic hands out of research laboratories has been limited by the intrinsic complexity that these devices present. This is directly reflected as an economically unreasonable cost and a low overall reliability. Within the research reported in this thesis it is shown how the problem of complexity in the design of robotic hands can be tackled, taking advantage of modern technologies (i.e. rapid prototyping), leading to innovative concepts for the design of the mechanical structure, the actuation and sensory systems. The solutions adopted drastically reduce the prototyping and production costs and increase the reliability, reducing the number of parts required and averaging their single reliability factors. In order to get guidelines for the design process, the problem of robotic grasp and manipulation by a dual arm/hand system has been reviewed. In this way, the requirements that should be fulfilled at hardware level to guarantee successful execution of the task has been highlighted. The contribution of this research from the manipulation planning side focuses on the redundancy resolution that arise in the execution of the task in a dexterous arm/hand system. In literature the problem of coordination of arm and hand during manipulation of an object has been widely analyzed in theory but often experimentally demonstrated in simplified robotic setup. Our aim is to cover the lack in the study of this topic and experimentally evaluate it in a complex system as a anthropomorphic arm hand system.
Resumo:
Partiamo dal lavoro di Kolmogorov per definire una misura della quantità di informazione contenuta in una stringa tramite un approccio computazionale: la complessità di una stringa è la lunghezza del più corto programma capace di produrla. Vediamo poi gli sviluppi moderni di questa teoria, in particolare i contributi di Chaitin, e notiamo subito i forti legami con la teoria della probabilità e con l'entropia di Shannon. Successivamente proponiamo di identificare le stringhe casuali (nel senso intuitivo) con quelle algoritmicamente incomprimibili, seguendo l'idea che minore comprimibilità significhi minore regolarità e dunque maggiore casualità. Infine vediamo che, in effetti, le stringhe incomprimibili soddisfano tutte le proprietà stocastiche effettivamente verificabili, cioè le proprietà che la teoria della probabilità attribuisce a successioni di variabili aleatorie indipendenti e identicamente distribuite. Facciamo ciò in maniera generale utilizzando la notevole teoria di Martin-Löf e poi vediamo in dettaglio l'aspetto della normalità di Borel.
Resumo:
In Medicina Nucleare è possibile ottenere immagini funzionali grazie all’iniezione nel paziente di un radiofarmaco. Quello più utilizzato nelle procedure diagnostiche di Medicina Nucleare è il 99mTc, un gamma emettitore con tempo di dimezzamento di circa sei ore. Attualmente, questo nuclide è prodotto attraverso generatori di 99Mo-99mTc, sfruttando il decadimento β- del 99Mo. Da diversi anni, però, si cerca in tutto il mondo una soluzione alternativa alla produzione di 99mTc, poiché il 99Mo si ottiene in reattori nucleari a partire dalla reazione di fissione del 235U, ma tali reattori sono stati quasi tutti costruiti più di cinquanta anni fa e necessitano continuamente di spegnimenti prolungati e riparazioni. L’alternativa più accreditata è quella relativa alla produzione diretta di 99mTc in ciclotrone attraverso l’irraggiamento di 100Mo con protoni. Il problema principale risiede nella scelta della forma chimica che contenga il 100Mo e del tipo di target da irraggiare. Quest’ultimo deve resistere ad alte correnti e a lunghi tempi di irraggiamento per ottenere quantità di 99mTc sufficienti a soddisfare almeno il fabbisogno del centro ospedaliero in cui è prodotto. Questo lavoro di tesi, svolto presso il Servizio di Fisica Sanitaria del Policlinico S.Orsola-Malpighi, è basato sulla realizzazione di un target a basso costo di triossido Molibdeno arricchito per la produzione diretta di 99mTc. Si sono inoltre valutate le impurezze e l’attività del nuclide di nostro interesse a seguito di irraggiamenti nel ciclotrone PETtrace.
Resumo:
Un LiDAR è uno strumento di misura che sta vedendo uno sviluppo enorme negli ultimi decenni e sta dando risultati di grande utilità pratica. Abbiamo svolto alcune misure di distanza utilizzando uno strumento realizzato con materiale di recupero e un semplice software scritto da noi. In una prima parte del lavoro, più teorica, si illustrerà il funzionamento dello strumen- to, basato sull’invio di fasci laser su bersagli opachi e sulla ricezione della loro riflessione. Si presterà particolare attenzione ai metodi sviluppati per poter sfruttare laser continui piuttosto che impulsati, che risulterebbero più costosi: le sequenze pseudocasuali di bit. Nella parte sperimentale invece si mostrerà l’analisi dei dati effettuata e si commen- teranno i risultati ottenuti osservando le misure, con lo scopo di verificare alcune ipotesi, fra cui si darà particolare attenzione al confronto delle diverse sequenze. Lo scopo di questo lavoro è caratterizzare lo strumento tramite l’analisi delle misure e verificare l’asserzione dell’articolo [1] in bibliografia secondo cui particolari sequenze di bit (A1 e A2) darebbero risultati migliori se utilizzate al posto della sequenza pseudocasuale di lunghezza massima, M-sequence.
Resumo:
Intelligent Transport Systems (ITS) consists in the application of ICT to transport to offer new and improved services to the mobility of people and freights. While using ITS, travellers produce large quantities of data that can be collected and analysed to study their behaviour and to provide information to decision makers and planners. The thesis proposes innovative deployments of classification algorithms for Intelligent Transport System with the aim to support the decisions on traffic rerouting, bus transport demand and behaviour of two wheelers vehicles. The first part of this work provides an overview and a classification of a selection of clustering algorithms that can be implemented for the analysis of ITS data. The first contribution of this thesis is an innovative use of the agglomerative hierarchical clustering algorithm to classify similar travels in terms of their origin and destination, together with the proposal for a methodology to analyse drivers’ route choice behaviour using GPS coordinates and optimal alternatives. The clusters of repetitive travels made by a sample of drivers are then analysed to compare observed route choices to the modelled alternatives. The results of the analysis show that drivers select routes that are more reliable but that are more expensive in terms of travel time. Successively, different types of users of a service that provides information on the real time arrivals of bus at stop are classified using Support Vector Machines. The results shows that the results of the classification of different types of bus transport users can be used to update or complement the census on bus transport flows. Finally, the problem of the classification of accidents made by two wheelers vehicles is presented together with possible future application of clustering methodologies aimed at identifying and classifying the different types of accidents.
Resumo:
Logistics involves planning, managing, and organizing the flows of goods from the point of origin to the point of destination in order to meet some requirements. Logistics and transportation aspects are very important and represent a relevant costs for producing and shipping companies, but also for public administration and private citizens. The optimization of resources and the improvement in the organization of operations is crucial for all branches of logistics, from the operation management to the transportation. As we will have the chance to see in this work, optimization techniques, models, and algorithms represent important methods to solve the always new and more complex problems arising in different segments of logistics. Many operation management and transportation problems are related to the optimization class of problems called Vehicle Routing Problems (VRPs). In this work, we consider several real-world deterministic and stochastic problems that are included in the wide class of the VRPs, and we solve them by means of exact and heuristic methods. We treat three classes of real-world routing and logistics problems. We deal with one of the most important tactical problems that arises in the managing of the bike sharing systems, that is the Bike sharing Rebalancing Problem (BRP). We propose models and algorithms for real-world earthwork optimization problems. We describe the 3DP process and we highlight several optimization issues in 3DP. Among those, we define the problem related to the tool path definition in the 3DP process, the 3D Routing Problem (3DRP), which is a generalization of the arc routing problem. We present an ILP model and several heuristic algorithms to solve the 3DRP.
Resumo:
A new control scheme has been presented in this thesis. Based on the NonLinear Geometric Approach, the proposed Active Control System represents a new way to see the reconfigurable controllers for aerospace applications. The presence of the Diagnosis module (providing the estimation of generic signals which, based on the case, can be faults, disturbances or system parameters), mean feature of the depicted Active Control System, is a characteristic shared by three well known control systems: the Active Fault Tolerant Controls, the Indirect Adaptive Controls and the Active Disturbance Rejection Controls. The standard NonLinear Geometric Approach (NLGA) has been accurately investigated and than improved to extend its applicability to more complex models. The standard NLGA procedure has been modified to take account of feasible and estimable sets of unknown signals. Furthermore the application of the Singular Perturbations approximation has led to the solution of Detection and Isolation problems in scenarios too complex to be solved by the standard NLGA. Also the estimation process has been improved, where multiple redundant measuremtent are available, by the introduction of a new algorithm, here called "Least Squares - Sliding Mode". It guarantees optimality, in the sense of the least squares, and finite estimation time, in the sense of the sliding mode. The Active Control System concept has been formalized in two controller: a nonlinear backstepping controller and a nonlinear composite controller. Particularly interesting is the integration, in the controller design, of the estimations coming from the Diagnosis module. Stability proofs are provided for both the control schemes. Finally, different applications in aerospace have been provided to show the applicability and the effectiveness of the proposed NLGA-based Active Control System.
Resumo:
Nel mondo della traduzione non sempre si può guardare esclusivamente alla qualità del testo di arrivo: ci sono scenari traduttivi, come quello oggetto del presente elaborato, in cui è necessario tener conto di altri fattori, in primis i costi per il committente e la produttività del traduttore. Con questo elaborato intendo dimostrare che per lo scenario traduttivo preso in esame, ossia la traduzione per un sito web di una grande quantità di ricette da parte di traduttori diversi, l’ausilio di un programma di traduzione assistita è da preferire, per produttività, coerenza traduttiva e contenimento dei costi, alla traduzione manuale e al post-editing della traduzione automatica. Per tale scopo, ho tradotto una ricetta con ciascuna di queste metodologie di lavoro, così da poterle mettere a confronto e potermi pronunciare, a seguito di un'analisi approfondita, circa il metodo migliore per lo scenario descritto.
Resumo:
Heart diseases are the leading cause of death worldwide, both for men and women. However, the ionic mechanisms underlying many cardiac arrhythmias and genetic disorders are not completely understood, thus leading to a limited efficacy of the current available therapies and leaving many open questions for cardiac electrophysiologists. On the other hand, experimental data availability is still a great issue in this field: most of the experiments are performed in vitro and/or using animal models (e.g. rabbit, dog and mouse), even when the final aim is to better understand the electrical behaviour of in vivo human heart either in physiological or pathological conditions. Computational modelling constitutes a primary tool in cardiac electrophysiology: in silico simulations, based on the available experimental data, may help to understand the electrical properties of the heart and the ionic mechanisms underlying a specific phenomenon. Once validated, mathematical models can be used for making predictions and testing hypotheses, thus suggesting potential therapeutic targets. This PhD thesis aims to apply computational cardiac modelling of human single cell action potential (AP) to three clinical scenarios, in order to gain new insights into the ionic mechanisms involved in the electrophysiological changes observed in vitro and/or in vivo. The first context is blood electrolyte variations, which may occur in patients due to different pathologies and/or therapies. In particular, we focused on extracellular Ca2+ and its effect on the AP duration (APD). The second context is haemodialysis (HD) therapy: in addition to blood electrolyte variations, patients undergo a lot of other different changes during HD, e.g. heart rate, cell volume, pH, and sympatho-vagal balance. The third context is human hypertrophic cardiomyopathy (HCM), a genetic disorder characterised by an increased arrhythmic risk, and still lacking a specific pharmacological treatment.
Resumo:
ottimizzazione energetica di una macchina automatica blisteratrice
Resumo:
I componenti del carbonio in ambito strutturale (aeronautico, navale, automobilistico) sono soggetti a deterioramenti ambientali di difficile determinazione, in particolare alla temperatura e all'umidità. Scopo di questa tesi è determinare i danneggiamenti dei materiali compositi CFRP in funzione di un invecchiamento a diverse percentuali della temperatura di transizione vetrosa Tg. In particolare si vuole studiare e approfondire il processo di reazione della matrice e del carbonio. Per meglio descrivere il procedimento di deterioramento e reazione del materiale composito dovuto ad alti livelli di temperatura, mi sono avvalso del supporto pratico dell’azienda “Riba Composites” di Faenza che in particolare si occupa della prototipazione e produzione di componenti strutturali in materiali compositi avanzati e che si è dimostrata leader nel settore dei compositi CFRP. Pochi studi sono stati condotti su tale argomento. Da qui il mio interesse specifico nel volere studiare e dimostrare come questo processo possa ulteriormente apportare un aiuto agli studi in ambito strutturale già effettuati e pubblicati precedentemente. La dimostrazione pratica della seguente tesi è avvenuta, con l’aiuto dell’Ing. Paolo Proli, nel laboratorio di MaSTeR Lab dell’Università di Bologna, dove si è deciso di eseguire vari invecchiamenti termici a diverse temperature per constatare i livelli di deterioramento e influenza delle variazioni di temperatura sulla matrice del composito preso in analisi. Gli effetti di tale studi sono stati sostenuti anche grazie alla guida del Professore Lorenzo Donati, e verranno dettagliatamente evidenziati nello specifico con spiegazioni in ambito teorico e dimostrazioni pratiche affiancate da schemi dimostrativi e supporto grafico.