586 resultados para DSA,problemi matematici,didattica personalizzata e individualizzata,consegne modificate
Resumo:
Approfondimento di tecniche di controllo ottimo per problemi di regolazione e di inseguimento di modello. Sintesi e implementazione di un algoritmo che si occupi del controllo della dinamica laterale di una vettura attraverso il sistema di aerodinamica mobile.
Resumo:
La tesi si propone di fornire una introduzione completa ai fondamenti della teoria delle frazioni continue (numeriche). Questo da' adito anche alla illustrazione e alla soluzione di vari problemi specialmente nell'ambito della teoria dei numeri che, in vari modi, si rifanno alle frazioni continue.
Resumo:
L’università di Bologna, da sempre attenta alle nuove tecnologie e all’innovazione, si è dotata nel 2010 di un Identity Provider (IDP), ovvero un servizio per la verifica dell’identità degli utenti dell’organizzazione tramite username e password in grado di sollevare le applicazioni web (anche esterne all’organizzazione) dall’onere di verificare direttamente le credenziali dell’utente delegando totalmente la responsabilità sul controllo dell’identità digitale all’IDP. La soluzione adottata (Microsoft ADFS) si è dimostrata generalmente semplice da configurare e da gestire, ma ha presentato problemi di integrazione con le principali federazioni di identità regionali e italiane (FedERa e IDEM) a causa di una incompatibilità con il protocollo SAML 1.1, ancora utilizzato da alcuni dei servizi federati. Per risolvere tale incompatibilità il "CeSIA – Area Sistemi Informativi e Applicazioni" dell’Università di Bologna ha deciso di dotarsi di un Identity Provider Shibboleth, alternativa open source ad ADFS che presenta funzionalità equivalenti ed è in grado di gestire tutte le versioni del protocollo SAML (attualmente rilasciato fino alla versione 2.0). Il mio compito è stato quello di analizzare, installare, configurare e integrare con le federazioni IDEM e FedERa un’infrastruttura basata sull’IDP Shibboleth prima in test poi in produzione, con la collaborazione dei colleghi che in precedenza si erano occupati della gestione della soluzione Microsoft ADFS. Il lavoro che ho svolto è stato suddiviso in quattro fasi: - Analisi della situazione esistente - Progettazione della soluzione - Installazione e configurazione di un Identity Provider in ambiente di test - Deploy dell’Identity Provider in ambiente di produzione
Resumo:
Web is constantly evolving, thanks to the 2.0 transition, HTML5 new features and the coming of cloud-computing, the gap between Web and traditional desktop applications is tailing off. Web-apps are more and more widespread and bring several benefits compared to traditional ones. On the other hand reference technologies, JavaScript primarly, are not keeping pace, so a paradim shift is taking place in Web programming, and so many new languages and technologies are coming out. First objective of this thesis is to survey the reference and state-of-art technologies for client-side Web programming focusing in particular on what concerns concurrency and asynchronous programming. Taking into account the problems that affect existing technologies, we finally design simpAL-web, an innovative approach to tackle Web-apps development, based on the Agent-oriented programming abstraction and the simpAL language. == Versione in italiano: Il Web è in continua evoluzione, grazie alla transizione verso il 2.0, alle nuove funzionalità introdotte con HTML5 ed all’avvento del cloud-computing, il divario tra le applicazioni Web e quelle desktop tradizionali va assottigliandosi. Le Web-apps sono sempre più diffuse e presentano diversi vantaggi rispetto a quelle tradizionali. D’altra parte le tecnologie di riferimento, JavaScript in primis, non stanno tenendo il passo, motivo per cui la programmazione Web sta andando incontro ad un cambio di paradigma e nuovi linguaggi e tecnologie stanno spuntando sempre più numerosi. Primo obiettivo di questa tesi è di passare al vaglio le tecnologie di riferimento ed allo stato dell’arte per quel che riguarda la programmmazione Web client-side, porgendo particolare attenzione agli aspetti inerenti la concorrenza e la programmazione asincrona. Considerando i principali problemi di cui soffrono le attuali tecnologie passeremo infine alla progettazione di simpAL-web, un approccio innovativo con cui affrontare lo sviluppo di Web-apps basato sulla programmazione orientata agli Agenti e sul linguaggio simpAL.
Resumo:
Il termine cloud ha origine dal mondo delle telecomunicazioni quando i provider iniziarono ad utilizzare servizi basati su reti virtuali private (VPN) per la comunicazione dei dati. Il cloud computing ha a che fare con la computazione, il software, l’accesso ai dati e servizi di memorizzazione in modo tale che l’utente finale non abbia idea della posizione fisica dei dati e la configurazione del sistema in cui risiedono. Il cloud computing è un recente trend nel mondo IT che muove la computazione e i dati lontano dai desktop e dai pc portatili portandoli in larghi data centers. La definizione di cloud computing data dal NIST dice che il cloud computing è un modello che permette accesso di rete on-demand a un pool condiviso di risorse computazionali che può essere rapidamente utilizzato e rilasciato con sforzo di gestione ed interazione con il provider del servizio minimi. Con la proliferazione a larga scala di Internet nel mondo le applicazioni ora possono essere distribuite come servizi tramite Internet; come risultato, i costi complessivi di questi servizi vengono abbattuti. L’obbiettivo principale del cloud computing è utilizzare meglio risorse distribuite, combinarle assieme per raggiungere un throughput più elevato e risolvere problemi di computazione su larga scala. Le aziende che si appoggiano ai servizi cloud risparmiano su costi di infrastruttura e mantenimento di risorse computazionali poichè trasferiscono questo aspetto al provider; in questo modo le aziende si possono occupare esclusivamente del business di loro interesse. Mano a mano che il cloud computing diventa più popolare, vengono esposte preoccupazioni riguardo i problemi di sicurezza introdotti con l’utilizzo di questo nuovo modello. Le caratteristiche di questo nuovo modello di deployment differiscono ampiamente da quelle delle architetture tradizionali, e i meccanismi di sicurezza tradizionali risultano inefficienti o inutili. Il cloud computing offre molti benefici ma è anche più vulnerabile a minacce. Ci sono molte sfide e rischi nel cloud computing che aumentano la minaccia della compromissione dei dati. Queste preoccupazioni rendono le aziende restie dall’adoperare soluzioni di cloud computing, rallentandone la diffusione. Negli anni recenti molti sforzi sono andati nella ricerca sulla sicurezza degli ambienti cloud, sulla classificazione delle minacce e sull’analisi di rischio; purtroppo i problemi del cloud sono di vario livello e non esiste una soluzione univoca. Dopo aver presentato una breve introduzione sul cloud computing in generale, l’obiettivo di questo elaborato è quello di fornire una panoramica sulle vulnerabilità principali del modello cloud in base alle sue caratteristiche, per poi effettuare una analisi di rischio dal punto di vista del cliente riguardo l’utilizzo del cloud. In questo modo valutando i rischi e le opportunità un cliente deve decidere se adottare una soluzione di tipo cloud. Alla fine verrà presentato un framework che mira a risolvere un particolare problema, quello del traffico malevolo sulla rete cloud. L’elaborato è strutturato nel modo seguente: nel primo capitolo verrà data una panoramica del cloud computing, evidenziandone caratteristiche, architettura, modelli di servizio, modelli di deployment ed eventuali problemi riguardo il cloud. Nel secondo capitolo verrà data una introduzione alla sicurezza in ambito informatico per poi passare nello specifico alla sicurezza nel modello di cloud computing. Verranno considerate le vulnerabilità derivanti dalle tecnologie e dalle caratteristiche che enucleano il cloud, per poi passare ad una analisi dei rischi. I rischi sono di diversa natura, da quelli prettamente tecnologici a quelli derivanti da questioni legali o amministrative, fino a quelli non specifici al cloud ma che lo riguardano comunque. Per ogni rischio verranno elencati i beni afflitti in caso di attacco e verrà espresso un livello di rischio che va dal basso fino al molto alto. Ogni rischio dovrà essere messo in conto con le opportunità che l’aspetto da cui quel rischio nasce offre. Nell’ultimo capitolo verrà illustrato un framework per la protezione della rete interna del cloud, installando un Intrusion Detection System con pattern recognition e anomaly detection.
Resumo:
La crescente disponibilità di dispositivi meccanici e -soprattutto - elettronici le cui performance aumentano mentre il loro costo diminuisce, ha permesso al campo della robotica di compiere notevoli progressi. Tali progressi non sono stati fatti unicamente per ciò che riguarda la robotica per uso industriale, nelle catene di montaggio per esempio, ma anche per quella branca della robotica che comprende i robot autonomi domestici. Questi sistemi autonomi stanno diventando, per i suddetti motivi, sempre più pervasivi, ovvero sono immersi nello stesso ambiente nel quale vivono gli essere umani, e interagiscono con questi in maniera proattiva. Essi stanno compiendo quindi lo stesso percorso che hanno attraversato i personal computer all'incirca 30 anni fa, passando dall'essere costosi ed ingombranti mainframe a disposizione unicamente di enti di ricerca ed università, ad essere presenti all'interno di ogni abitazione, per un utilizzo non solo professionale ma anche di assistenza alle attività quotidiane o anche di intrattenimento. Per questi motivi la robotica è un campo dell'Information Technology che interessa sempre più tutti i tipi di programmatori software. Questa tesi analizza per prima cosa gli aspetti salienti della programmazione di controllori per robot autonomi (ovvero senza essere guidati da un utente), quindi, come l'approccio basato su agenti sia appropriato per la programmazione di questi sistemi. In particolare si mostrerà come un approccio ad agenti, utilizzando il linguaggio di programmazione Jason e quindi l'architettura BDI, sia una scelta significativa, dal momento che il modello sottostante a questo tipo di linguaggio è basato sul ragionamento pratico degli esseri umani (Human Practical Reasoning) e quindi è adatto alla implementazione di sistemi che agiscono in maniera autonoma. Dato che le possibilità di utilizzare un vero e proprio sistema autonomo per poter testare i controllori sono ridotte, per motivi pratici, economici e temporali, mostreremo come è facile e performante arrivare in maniera rapida ad un primo prototipo del robot tramite l'utilizzo del simulatore commerciale Webots. Il contributo portato da questa tesi include la possibilità di poter programmare un robot in maniera modulare e rapida per mezzo di poche linee di codice, in modo tale che l'aumento delle funzionalità di questo risulti un collo di bottiglia, come si verifica nella programmazione di questi sistemi tramite i classici linguaggi di programmazione imperativi. L'organizzazione di questa tesi prevede un capitolo di background nel quale vengono riportare le basi della robotica, della sua programmazione e degli strumenti atti allo scopo, un capitolo che riporta le nozioni di programmazione ad agenti, tramite il linguaggio Jason -quindi l'architettura BDI - e perché tale approccio è adatto alla programmazione di sistemi di controllo per la robotica. Successivamente viene presentata quella che è la struttura completa del nostro ambiente di lavoro software che comprende l'ambiente ad agenti e il simulatore, quindi nel successivo capitolo vengono mostrate quelle che sono le esplorazioni effettuate utilizzando Jason e un approccio classico (per mezzo di linguaggi classici), attraverso diversi casi di studio di crescente complessità; dopodiché, verrà effettuata una valutazione tra i due approcci analizzando i problemi e i vantaggi che comportano questi. Infine, la tesi terminerà con un capitolo di conclusioni e di riflessioni sulle possibili estensioni e lavori futuri.
Resumo:
Il Test di Risposta Termica (Thermal Response Test-TRT) (Mogenson,1983) è il test esistente con il più alto grado di accuratezza per la caratterizzazione del reservoir geotermico superficiale. Il test consiste in una simulazione in situ del funzionamento di un sistema a circuito chiuso di sfruttamento dell’energia geotermica, per un periodo limitato di tempo, attraverso l’iniezione o estrazione di calore a potenza costante all’interno del geo-scambiatore (Borehole Heat Exchanger-BHE). Dall’analisi della variazione delle temperature del fluido circolante, è possibile avere una stima delle proprietà termiche medie del volume del reservoir geotermico interessato dal test. Le grandezze principali per la caratterizzazione di un serbatoio geotermico sono la conduttività termica (λ), la capacità termica volumetrica (c), la temperatura indisturbata del suolo (Tg) e la resistenza termica del pozzo (Rb); la loro determinazione è necessaria per il corretto progettazione degli geo-scambiatori. I risultati del TRT sono tuttavia sensibili alle condizioni al contorno spazio-temporali quali ad es.: variazione della temperatura del terreno, movimento d’acqua di falda, condizioni metereologiche, eventi stagionali, ecc. Questo lavoro vuole: i) introdurre uno studio sui problemi di caratterizzazione del reservoir geotermico superficiale, in particolare analizzando l’effetto che il movimento d’acqua di falda ha sui parametri termici; ii) analizzare la sensitività dei risultati del test alle variabilità dei parametri caratteristici del funzionamento delle attrezzature. Parte del lavoro della mia tesi è stata svolta in azienda per un periodo di 4 mesi presso la “Groenholland Geo Energy systems” che ha sede ad Amsterdam in Olanda. Tre diversi esperimenti sono stati realizzati sullo stesso sito (stratigrafia nota del terreno: argilla, sabbia fine e sabbia grossa) usando una sonda profonda 30 metri e diversi pozzi per l’estrazione d’acqua e per monitorare gli effetti in prossimità del geo scambiatore. I risultati degli esperimenti sono stati molto diversi tra di loro, non solo in termini di dati registrati (temperature del fluido termovettore), ma in termini dei valori dei parametri ottenuti elaborando i dati. In particolare non è sufficiente adottare il modello classico della sorgente lineare infinita (Infinite Line Source Solution- ILS) (Ingersoll and Plass, 1948), il quale descrive il trasferimento di calore per conduzione in un mezzo omogeneo indefinito a temperatura costante. Infatti, lo scambio di calore avviene anche tramite convezione causata dal movimento d’acqua di falda, non identificabile mediante gli approcci classici tipo CUSUM test (Cumulative Sum test) (Brown e altri,1975) Lo studio della tesi vuole dare un quadro di riferimento per correlare la variabilità dei risultati con la variabilità delle condizioni al contorno. L’analisi integra le metodologie classiche (ILS) con un approccio geostatistico utile a comprendere i fenomeni e fluttuazioni che caratterizzano il test. Lo studio delle principali variabili e parametri del test, quali temperatura in ingresso e uscita del fluido termovettore, portata del fluido e potenza iniettata o estratta, è stato sviluppato mediante: il variogramma temporale, ovvero la semivarianza dell’accrescimento, che esprime il tipo di autocorrelazione temporale della variabile in esame; la covarianza incrociata temporale, ovvero la covarianza fra due variabili del sistema, che ne definisce quantitativamente il grado di correlazione in funzionamento del loro sfasamento temporale. L’approccio geostatistico proposto considera la temperatura del fluido Tf come una funzione aleatoria (FA) non stazionaria nel tempo (Chiles, 1999), il cui trend è formalmente definito, ma deve essere identificato numericamente. Si considera quindi un classico modello a residuo; in cui la FA è modellizzata come la somma di un termine deterministico, la media (il valore atteso) m(t),coincidente col modello descritto dalla teoria della sorgente lineare infinità, e di un termine aleatorio, la fluttuazione, Y(t). Le variabili portata e potenza sono invece considerate delle funzioni aleatorie stazionarie nel tempo, ovvero a media costante. Da questo studio di Tesi si sono raggiunte delle conclusioni molto importanti per lo studio del TRT: Confronto tra gli esperimenti in estrazione di calore, con e senza movimento d’acqua di falda: si studia l’effetto indotto dalla falda sul TRT. E’ possibile caratterizzare quantitativamente l’incremento della conducibilità termica equivalente legata a fenomeni convettivi dovuti al movimento d’acqua di falda. Inoltre, i variogrammi sperimentali evidenziano periodicità simili nei due casi e legate al funzionamento della pompa di calore e della componentistica associata ed alla circolazione del fluido termovettore all’interno della sonda. Tuttavia, la componente advettiva ha un effetto di smorzamento sulle piccole periodicità dei variogrammi, ma di aumento dell’ampiezza delle periodicità maggiori a causa del funzionamento della pompa di calore che deve fornire maggiore energia al sistema per bilanciare le dispersioni dovute al movimento d’acqua di falda. Confronto fra estrazione ed iniezione di calore, con movimento d’acqua di falda: si studia la significatività dei risultati nei due casi. L’analisi delle variografie evidenzia significative differenze nella struttura dei variogrammi sperimentali. In particolare, nel test con iniezione di calore i variogrammi sperimentali delle temperature hanno valori sistematicamente inferiori, circostanza che assicura una migliore precisione nella stima dei parametri termici. Quindi eseguire il TRT in iniezione di calore risulta più preciso. Dall’analisi dei variogrammi sperimentali delle singole variabili quali temperatura del fluido in ingresso e uscita all’interno del geoscambiatore è stato confermato il fenomeno di smorzamento delle oscillazioni da parte del terreno. Dall’analisi delle singole variabili del test (temperature, potenza, portata) è stata confermata l’indipendenza temporale fra portate e temperature. Ciò è evidenziato dalle diverse strutture dei variogrammi diretti e dalle covarianze incrociate prossime a zero. Mediante correlogrami è stato dimostrato la possibilità di calcolare il tempo impiegato dal fluido termovettore per circolare all’interno della sonda. L’analisi geostatistica ha permesso quindi di studiare in dettaglio la sensitività dei risultati del TRT alle diverse condizioni al contorno, quelle legate al reservoir e quelle legate al funzionamento delle attrezzature
Resumo:
Nel presente elaborato è trattato l'innesco di un sistema di recupero ambientale di energia da sorgenti a radiofrequenza, captate tramite rectenna, nell'ambito di un sistema completamente autonomo dal punto di vista energetico, quindi non dotato di batteria ricaricabile interna. Dopo un'analisi dei problemi da affrontare e delle possibili soluzioni tecniche per gestire le micropotenze restituite dalla rectenna, ci si concentra in modo preferenziale sul ruolo del condensatore posto sulla porta d'ingresso dell'oscillatore di Meissner, che è utilizzato come elevatore di tensione per attivare gli stadi successivi. Sfruttando le esperienze con lo stesso oscillatore pilotato da altri sensori di energy harvesting, è possibile determinare approssimativamente se il circuito si presta o meno all'utilizzo con le rectenne nei campi RF, suggerendo eventuali migliorie da apportare per facilitarne il funzionamento.
Resumo:
Nel ramo della Information Tecnology, recentemente, nascono sistemi informativi adibiti alla gestione di risorse hardware e software distribuite e visualizzate in rete. Uno degli strumenti più utilizzati e commercializzati per l'utilizzo di tale tipo di tecnologie è rappresentato dal cloud computing. Secondo una ricerca del "Il Sole 24 Ore'' in Italia il 25% delle aziende italiane intende adottare il cloud nei prossimi 12 mesi. E' un mercato da 287 milioni di euro nel 2011, +41% sul 2010, e passerà a 394 milioni nel 2012 per poi risalire a 671 nel 2014. Questa tesi si basa su un lavoro di ricerca precedentemente alla stessa in cui ho esaminato esperienze aziendali o riflessioni di queste ultime sull'applicazione e l'utilizzo della tecnologia cloud come modello di business. Il lavoro si è svolto leggendo ed analizzando due quotidiani italiani (Il Corriere della Sera e il Il Sole 24 Ore), un quotidiano inglese (Financial Times) e un settimanale londinese (The Economist) nell'arco di due anni a questa parte. Attraverso l'analisi degli articoli ottenuti è stata redatta una sintesi degli stessi pervenendo ad una riflessione che ha rappresentato lo spunto di tale tesi. Spesso si discuteva di problemi legati al cloud ma solo in pochi articoli vi era presente una vera e propria case history con analisi di eventuali difficoltà o benefici riscontrati. Da questo l'inizio di tale attività che pone l'obbiettivo di capire, in parte, il perché di così tanta riluttanza verso uno strumento che sembra rappresentare la scelta tecnologicamente più appropriata e strategicamente ottimale. Il cuore della ricerca è rappresentato dalle interviste svolte ad alcune aziende in merito all'utilizzo della "nuvola'' nel loro sistema informatico. Questa tesi si suddividerà: -Descrizione storica della nascita e dello sviluppo del cloud computing -Analisi delle tecnologie attualmente esistenti e dei modelli di distribuzione -Opportunità e minacce legate all'utilizzo di tale tecnologia in un ambiente aziendale -Studio ed analisi di alcuni casi aziendali e del ruolo che svolge l'uso del cloud nel proprio modello di business -Valutazione dell'attuale situazione del cloud computing e delle prospettive future legate all'utilizzo della tecnologia in analisi
Resumo:
Lo scopo della tesi è quello di affrontare la progettazione con un approccio,quanto più attuale e per certi versi avanguardista, chiamato Parametric design (progettazione parametrica), accoppiato efficacemente col concetto di Arte generativa (in questo caso Architettura). Già nel 1957 Luigi Moretti affrontò il tema dell’architettura parametrico-generativa fondando l’IRMOU (Istituto per la Ricerca Matematica e Operativa applicata all'Urbanistica) e oggi è una mentalità molto diffusa nei più grandi studi del mondo. Il tema non è solo tecnologico o informatico strumentale, ma è proprio un modo di pensare e immaginare il possibile, costruito o naturale che sia. E’ un modo di vivere la propria creatività. L’aggettivo “generativa” è legato al fatto che l’arte in esame è generata seguendo regole preimpostate e ben definite dal progettista, coerentemente agli obiettivi e alle finalità del progetto. L’evoluzione delle stesse, seguendo relazioni molto semplici, può dar vita a risultati sorprendenti e inaspettati, dotati di una notevole complessità che però, se letta nell’insieme, è perfettamente in armonia con l’idea progettuale di partenza. Il fascino di questa materia è il legame entusiasmante che crea tra architettura, ingegneria, poesia, filosofia, matematica, biologia, fisica, pittura ecc ecc. Questo perché i concetti di evoluzione, di relazione e di generazione appartengono a tutto ciò che ci circonda, e quindi alla concezione umana di vita. E’ possibile in questo modo permeare il costrutto progettuale con principi e regole oggettivamente riconoscibili e apprezzabili dallo spettatore perché instrisi di una forte veridicità processuale. Il titolo "Oxymoron" è la traduzione inglese della figura retorica ossimoro,la quale è strettamente connessa all’ispirazione progettuale: proviene dall’indagine approfondita di processi evolutivi (distruttivi in questo caso) caratterizzanti realtà naturali che, esplorate con sempre più accuratezza, determinano morfologie e forme aventi profonde radici strutturali. La distruzione che crea lo spazio. La genesi stessa della forma segue predominanti algoritmi matematici governati e corretti da variabili di diversa natura che definiscono l'enviroment di influenze interagenti ed agenti sul campione di studio. In questo caso la ricerca è focalizzata su processi erosivi fisici e chimici, di agenti esterni (quali vento e sali rispettivamente) ,di cui materiali inorganici, quali minerali e aggregati degli stessi (rocce), sono soggetti. In particolare, l’interesse è approfondito su fenomeni apparentemente emergenti dei tafoni e dei cosiddetti Micro canyon. A tal scopo si sfrutterà un metodo di soft kill option (SKO) di ottimizzazione topologica (optimization topology) attraverso gli strumenti informatici più idonei quali software di modellazione parametrica e di calcolo computazionale. La sperimentazione sta proprio nell'utilizzare uno strumento concepito per uno scopo, con un'ottica strettamente ingegneristica, per un'altra meta, ossia ricavare e ottenere se possibile un metodo di lavoro o anche solo un processo generativo tale da riprodurre o simulare casi e situazioni riscontrabili in natura negli eventi soggetti a erosione. Il tutto coerente con le regole che stanno alla base della genesi degli stessi. Il parallelismo tra singolarità naturale e architettura risiede nella generazione degli spazi e nella combinazione di questi. L’ambizioso obiettivo è quello di innescare un ciclo generativo, che messo in comunicazione diretta con un contesto variegato ed eterogeneo, dia vita a una soluzione progettuale dall'alto contenuto morfologico e spaziale.
Resumo:
TuCSoN (Tuple Centres Spread over the Network) è un modello di coordinazione per processi distribuiti o agenti autonomi. Il modello di TuCSoN viene implementato come un middleware distribuito Java-based, distribuito Open Source sotto la licenza LGPL tramite Googlecode. Il fatto che lo stesso sia Open Source e Java-based ha reso possibile il suo porting su Android, rendendo il noto sistema operativo di Google un possibile agente partecipante ad un sistema TuCSoN. La tesi descrive il percorso che ha portato dallo studio dell'infrastruttura TuCSoN e del sistema Android alla realizzazione dell'applicazione Android, rendendo possibile a qualsiasi dispositivo Android di partecipare ad un sistema TuCSoN. Nel particolare l'obiettivo finale dell'applicazione Android, e di questa tesi, è rendere lo smartphone un nodo TuCSoN funzionante. La tesi non si pone l'obiettivo di analizzare ed esplorare le funzionalità e le possibilitàa delle due tecnologie principali trattate (Android e TuCSoN) nel loro singolo, quanto quello di esplorare le criticità che un porting di questo tipo comporta, quali ad esempio le differenze intrinseche fra la JVM e la DalvikVM e come aggirarle, o le funzionalità di Android e come utilizzarle allo scopo di realizzare un applicazione che funga da server ad una infra- struttura distribuita, oppure le differenze a livello di gestione della GUI fra Android e plain-java, e di analizzare le soluzioni trovate per risolvere (o dove non era possibile risolvere evitare) tali problemi al fine del raggiungimento dell'obiettivo che ci si era prefissati.
Resumo:
Il BPA è un composto aromatico precursore di materiali plastici e additivi chimici, ed è entrato a far parte della categoria dei contaminanti che alterano il sistema endocrino con molteplici effetti negativi sulla salute umana (azione di mimesi estrogenica, alterazioni della funzione tiroidea e dei sistemi riproduttivo, nervoso ed immunitario). Nella fase produttiva industriale si hanno emissioni accidentali di BPA durante il trattamento e la lavorazione dei monomeri plastici. Piccole frazioni di BPA possono essere ingerite dall’uomo poiché la sostanza migra nel tempo dal contenitore alimentare al contenuto (es. bevanda in lattina o contenitore per microonde) soprattutto se esposto ad alte temperature. Anche il contatto con composti acidi o basici, la presenza di elevati livelli di cloruro di sodio o di oli vegetali, è in grado di provocare un incremento del rilascio di BPA dai materiali polimerici. Il BPA viene rilasciato dai biberon in policarbonato, che in molti Paesi sono stati ritirati dal commercio nel 2011, e da bottiglie di acqua riutilizzabili. Infine, la carta termica degli scontrini e delle fotocopie rilasciano BPA. Nell’adulto la tossicità del BPA sembra modesta, tuttavia l'esposizione nel feto e nel neonato può risultare deleteria. Al di là della tossicità, l'aspetto che al momento preoccupa maggiormente è l'effetto che il BPA ha anche a basse dosi sul metabolismo: diversi studi in tutto il mondo correlano questa sostanza all'incidenza di diabete, ipertensione, obesità e problemi cardiaci. L’attenzione per il BPA è piuttosto recente a livello umano, mentre è assai ridotta per la salute dell’ecosistema. Tuttavia è noto che il BPA è presente anche come contaminante dei suoli, e pur essendo stato documentato il suo bioaccumulo negli organismi vegetali, non sono disponibili informazioni precedenti relativi agli effetti del BPA sugli organismi animali del suolo, in linea con il fatto che il suolo è stato una matrice ambientale molto trascurata. Il presente lavoro di tesi quindi si pone come uno studio pilota per valutare la possibile tossicità del BPA su organismi modello che vivono in questa matrice. In questo studio è stato scelto come bioindicatore “sentinella” il lombrico Eisenia andrei, il comune verme rosso, come suggeriscono le linee guida internazionali (OECD, OCSE). I possibili effetti biologici del Bisfenolo A nei lombrichi sono stati indagati sia attraverso endpoint del ciclo vitale (accrescimento, riproduzione e mortalità), sia attraverso una batteria di biomarker (generali e specifici). Data la mancanza di osservazioni precedenti si è scelto un approccio integrato tra i parametri del ciclo vitale, in genere meno sensibili ma ecologicamente più rilevanti, e i biomarker, risposte più sensibili che possono rappresentare segnali precoci di allarme inerenti l’esposizione a contaminanti ambientali o l’effetto di questi ultimi sugli organismi indagati, ma non necessariamente predittivi sulla salute della comunità. Al momento non esistono batterie di biomarker specifiche per questa sostanza, quindi un ulteriore scopo della ricerca è stato quello di evidenziare biomarker utili ad indagare eventuali alterazioni biochimiche e funzionali nei lombrichi in risposta all’esposizione a dosi crescenti di bisfenolo A. Le risposte biologiche indagate sono: - la diminuzione della stabilità delle membrane lisosomiali, che indica una riduzione dello stato di salute generale degli organismi; - l’alterazione dell’attività degli enzimi catalasi e glutatione-S-trasferasi, indice di stress ossidativo o induzione di meccanismi di detossificazione; - la diminuzione dell’attività dell’enzima acetilcolinesterasi, la quale indica neurotossicità; - l’accumulo di lipofuscine o lipidi neutri, che è sintomo rispettivamente di stress ossidativo o alterazioni del metabolismo; - la variazione della malondialdeide, composto intermedio della perossidazione lipidica, indica un stress ossidativo in corso. Sulla base dei dati ottenuti possiamo dire che il BPA, alle concentrazioni ambientali, non costituisce un elemento di rischio ecologico per gli organismi sentinella Eisenia andrei. Alle concentrazioni più elevate (che superano quelle ambientali di almeno 10 volte) si osservano delle alterazioni sui livelli di lipidi neutri e lipofuscine che pur non essendo preoccupanti dal punto di vista ecologico sono indice di vulnerabilità, dato che si tratta di alterazioni del metabolismo in conseguenza delle quali gli animali accumulano residui normalmente degradati a livello lisosomiale. Questo accumulo nei lisosomi delle cellule del tessuto cloragogeno dei vermi, che rivestono il tubo digerente, sembrano indicare una esposizione attraverso la dieta a seguito della ingestione del terreno. E’interessante il fatto che l’accumulo di lipidi è in linea con le caratteristiche obesogene del BPA, ben manifestate nei mammiferi, uomo compreso. Tuttavia non ci sono ancora conoscenze sufficienti per stabilire se questo accumulo nei vermi sia dovuto ad una specifica alterazione degli enzimi di sintesi dei lipidi oppure più genericamente ad un aumento dello stress ossidativo. Molti studi stanno valutando la capacità del BPA di alterare la sintesi e il rilascio di lipidi in cellule umane e di ratto, ma non ci sono ancora studi di questo tipo per gli organismi edafici. E’ auspicabile che questo aspetto venga approfondito, ed eventualmente venga identificato un nuovo biomarker specifico dell’azione del BPA sull’accumulo di lipidi. Un altro aspetto che sarà interessante approfondire è il bioaccumulo: la valutazione del rischio ecotossicologico di una sostanza si basa anche sul potenziale di BCF che può essere pericoloso per il biota (incluso l’uomo) per trasferimento nella catena trofica. Considerando che non esistono ancora studi specifici del bioaccumulo del BPA in organismi del suolo, ed avendo messo in luce che l’assunzione della sostanza è avvenuta (probabilmente per via alimentare) ci si pone l’obiettivo futuro di valutare questo parametro nei lombrichi, in modo da avere un quadro più ampio degli effetti associati a questo interferente endocrino nei suoli.
Resumo:
La presente tesi è dedicata al riuso nel software. Eccettuata un'introduzione organica al tema, l'analisi è a livello dei meccanismi offerti dai linguaggi di programmazione e delle tecniche di sviluppo, con speciale attenzione rivolta al tema della concorrenza. Il primo capitolo fornisce un quadro generale nel quale il riuso del software è descritto, assieme alle ragioni che ne determinano l'importanza e ai punti cruciali relativi alla sua attuazione. Si individuano diversi livelli di riuso sulla base dell'astrazione e degli artefatti in gioco, e si sottolinea come i linguaggi contribuiscano alla riusabilità e alla realizzazione del riuso. In seguito, viene esplorato, con esempi di codice, il supporto al riuso da parte del paradigma ad oggetti, in termini di incapsulamento, ereditarietà, polimorfismo, composizione. La trattazione prosegue analizzando differenti feature – tipizzazione, interfacce, mixin, generics – offerte da vari linguaggi di programmazione, mostrando come esse intervengano sulla riusabilità dei componenti software. A chiudere il capitolo, qualche parola contestualizzata sull'inversione di controllo, la programmazione orientata agli aspetti, e il meccanismo della delega. Il secondo capitolo abbraccia il tema della concorrenza. Dopo aver introdotto l'argomento, vengono approfonditi alcuni significativi modelli di concorrenza: programmazione multi-threaded, task nel linguaggio Ada, SCOOP, modello ad Attori. Essi vengono descritti negli elementi fondamentali e ne vengono evidenziati gli aspetti cruciali in termini di contributo al riuso, con esempi di codice. Relativamente al modello ad Attori, viene presentata la sua implementazione in Scala/Akka come caso studio. Infine, viene esaminato il problema dell'inheritance anomaly, sulla base di esempi e delle tre classi principali di anomalia, e si analizza la suscettibilità del supporto di concorrenza di Scala/Akka a riscontrare tali problemi. Inoltre, in questo capitolo si nota come alcuni aspetti relativi al binomio riuso/concorrenza, tra cui il significato profondo dello stesso, non siano ancora stati adeguatamente affrontati dalla comunità informatica. Il terzo e ultimo capitolo esordisce con una panoramica dell'agent-oriented programming, prendendo il linguaggio simpAL come riferimento. In seguito, si prova ad estendere al caso degli agenti la nozione di riuso approfondita nei capitoli precedenti.