607 resultados para Chiloscyllium punctatum, Crescita, Sacco vitellino, Sviluppo embrionale, Illuminamento, Acquario

em AMS Tesi di Laurea - Alm@DL - Università di Bologna


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente tesi tratta delle attività riproduttive e delle prime fasi di crescita dello squalo Chiloscyllium punctatum. Da Dicembre 2013 a Giugno 2014, all’Acquario di Cattolica, sono state effettuate osservazioni su una coppia di adulti riproduttori e sui relativi neonati mantenuti in ambiente controllato. Il Chiloscyllium punctatum è una specie ovipara che rilascia uova di forma rettangolare, ha un ciclo riproduttivo relativamente rapido ed è molto sfruttata come specie ornamentale dagli acquari di tutto il mondo. Per ottenere una corretta gestione in ambiente controllato, la riproduzione ed estrapolare il maggior numero d’informazioni certe su gli stadi di vita, sulla dieta di divezzamento dei neonati dal sacco vitellino, sull’illuminazione più consona da adottare, sulle dimensioni medie di uova, nascituri e adulti, sulla crescita dei nascituri, sui tempi di sviluppo embrionale, sulla frequenza di deposizione delle uova e sui tempi di schiusa è stato necessario sviluppare un corretta procedura di gestione ordinaria. In 7 mesi, gli adulti di C. punctatum, in condizioni ambientali ottimali e costanti, hanno dato vita a 33 neonati. Questi sono stati sottoposti a misurazioni di lunghezza (LT, cm) e peso corporeo (PC, g) per valutare l’influenza dell’illuminamento e della dieta sulla crescita. Inoltre, sono stati confrontati dati sperimentali (e.g. tempistiche di sviluppo embrionale) con dati bibliografici (Haraush et al., 2007) che hanno evidenziato alcune similitudini e differenze.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il concetto di “sostenibilità” si riferisce allo sviluppo dei sistemi umani attraverso il più piccolo impatto possibile sul sistema ambientale. Le opere che si inseriscono bene nel contesto ambientale circostante e le pratiche che rispettano le risorse in maniera tale da permettere una crescita e uno sviluppo a lungo termine senza impattare sull’ambiente sono indispensabili in una società moderna. I progressi passati, presenti e futuri che hanno reso i conglomerati bituminosi materiali sostenibili dal punto di vista ambientale sono particolarmente importanti data la grande quantità di conglomerato usato annualmente in Europa e negli Stati Uniti. I produttori di bitume e di conglomerato bituminoso stanno sviluppando tecniche innovative per ridurre l’impatto ambientale senza compromettere le prestazioni meccaniche finali. Un conglomerato bituminoso ad “alta lavorabilità” (WMA), pur sviluppando le stesse caratteristiche meccaniche, richiede un temperatura di produzione minore rispetto a quella di un tradizionale conglomerato bituminoso a caldo (HMA). L’abbassamento della temperature di produzione riduce le emissioni nocive. Questo migliora le condizioni dei lavoratori ed è orientato verso uno sviluppo sostenibile. L’obbiettivo principale di questa tesi di laurea è quello di dimostrare il duplice valore sia dal punto di vista dell’eco-compatibilità sia dal punto di vista meccanico di questi conglomerati bituminosi ad “alta lavorabilità”. In particolare in questa tesi di laurea è stato studiato uno SMA ad “alta lavorabilità” (PGGWMA). L’uso di materiali a basso impatto ambientale è la prima fase verso un progetto ecocompatibile ma non può che essere il punto di partenza. L’approccio ecocompatibile deve essere esteso anche ai metodi di progetto e alla caratterizzazione di laboratorio dei materiali perché solo in questo modo è possibile ricavare le massime potenzialità dai materiali usati. Un’appropriata caratterizzazione del conglomerato bituminoso è fondamentale e necessaria per una realistica previsione delle performance di una pavimentazione stradale. La caratterizzazione volumetrica (Mix Design) e meccanica (Deformazioni Permanenti e Comportamento a fatica) di un conglomerato bituminoso è una fase importante. Inoltre, al fine di utilizzare correttamente i materiali, un metodo di progetto avanzato ed efficiente, come quello rappresentato da un approccio Empirico-Meccanicistico (ME), deve essere utilizzato. Una procedura di progetto Empirico-Meccanicistica consiste di un modello strutturale capace di prevedere gli stati di tensione e deformazione all’interno della pavimentazione sotto l’azione del traffico e in funzione delle condizioni atmosferiche e di modelli empirici, calibrati sul comportamento dei materiali, che collegano la risposta strutturale alle performance della pavimentazione. Nel 1996 in California, per poter effettivamente sfruttare i benefici dei continui progressi nel campo delle pavimentazioni stradali, fu iniziato un estensivo progetto di ricerca mirato allo sviluppo dei metodi di progetto Empirico - Meccanicistici per le pavimentazioni stradali. Il risultato finale fu la prima versione del software CalME che fornisce all’utente tre approcci diversi di l’analisi e progetto: un approccio Empirico, uno Empirico - Meccanicistico classico e un approccio Empirico - Meccanicistico Incrementale - Ricorsivo. Questo tesi di laurea si concentra sulla procedura Incrementale - Ricorsiva del software CalME, basata su modelli di danno per quanto riguarda la fatica e l’accumulo di deformazioni di taglio dai quali dipendono rispettivamente la fessurazione superficiale e le deformazioni permanenti nella pavimentazione. Tale procedura funziona per incrementi temporali successivi e, usando i risultati di ogni incremento temporale, ricorsivamente, come input dell’incremento temporale successivo, prevede le condizioni di una pavimentazione stradale per quanto riguarda il modulo complesso dei diversi strati, le fessurazioni superficiali dovute alla fatica, le deformazioni permanenti e la rugosità superficiale. Al fine di verificare le propreità meccaniche del PGGWMA e le reciproche relazioni in termini di danno a fatica e deformazioni permanenti tra strato superficiale e struttura della pavimentazione per fissate condizioni ambientali e di traffico, è stata usata la procedura Incrementale – Ricorsiva del software CalME. Il conglomerato bituminoso studiato (PGGWMA) è stato usato in una pavimentazione stradale come strato superficiale di 60 mm di spessore. Le performance della pavimentazione sono state confrontate a quelle della stessa pavimentazione in cui altri tipi di conglomerato bituminoso sono stati usati come strato superficiale. I tre tipi di conglomerato bituminoso usati come termini di paragone sono stati: un conglomerato bituminoso ad “alta lavorabilità” con granulometria “chiusa” non modificato (DGWMA), un conglomerato bituminoso modificato con polverino di gomma con granulometria “aperta” (GGRAC) e un conglomerato bituminoso non modificato con granulometria “chiusa” (DGAC). Nel Capitolo I è stato introdotto il problema del progetto ecocompatibile delle pavimentazioni stradali. I materiali a basso impatto ambientale come i conglomerati bituminosi ad “alta lavorabilità” e i conglomerati bituminosi modificati con polverino di gomma sono stati descritti in dettaglio. Inoltre è stata discussa l’importanza della caratterizzazione di laboratorio dei materiali e il valore di un metodo razionale di progetto delle pavimentazioni stradali. Nel Capitolo II sono stati descritti i diversi approcci progettuali utilizzabili con il CalME e in particolare è stata spiegata la procedura Incrementale – Ricorsiva. Nel Capitolo III sono state studiate le proprietà volumetriche e meccaniche del PGGWMA. Test di Fatica e di Deformazioni Permanenti, eseguiti rispettivamente con la macchina a fatica per flessione su quattro punti e il Simple Shear Test device (macchina di taglio semplice), sono stati effettuati su provini di conglomerato bituminoso e i risultati dei test sono stati riassunti. Attraverso questi dati di laboratorio, i parametri dei modelli della Master Curve, del danno a fatica e dell’accumulo di deformazioni di taglio usati nella procedura Incrementale – Ricorsiva del CalME sono stati valutati. Infine, nel Capitolo IV, sono stati presentati i risultati delle simulazioni di pavimentazioni stradali con diversi strati superficiali. Per ogni pavimentazione sono stati analizzati la fessurazione superficiale complessiva, le deformazioni permanenti complessive, il danno a fatica e la profondità delle deformazioni in ognuno degli stati legati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La velocità di cambiamento che caratterizza il mercato ha posto l'attenzione di molte imprese alla Business Analysis. La raccolta, la gestione e l'analisi dei dati sta portando numerosi benefici in termini di efficienza e vantaggio competitivo. Questo è reso possibile dal supporto reale dei dati alla strategia aziendale. In questa tesi si propone un'applicazione della Business Analytics nell'ambito delle risorse umane. La valorizzazione del Capitale Intellettuale è fondamentale per il miglioramento della competitività dell'impresa, favorendo così la crescita e lo sviluppo dell'azienda. Le conoscenze e le competenze possono incidere sulla produttività, sulla capacità innovativa, sulle strategie e sulla propria reattività a comprendere le risorse e le potenzialità a disposizione e portano ad un aumento del vantaggio competitivo. Tramite la Social Network Analysis si possono studiare le relazioni aziendali per conoscere diversi aspetti della comunicazione interna nell'impresa. Uno di questi è il knowledge sharing, ovvero la condivisione della conoscenza e delle informazioni all'interno dell'organizzazione, tema di interesse nella letteratura per via delle potenzialità di crescita che derivano dal buon utilizzo di questa tecnica. L'analisi si è concentrata sulla mappatura e sullo studio del flusso di condivisione di due delle principali componenti della condivisione di conoscenza: sharing best prectices e sharing mistakes, nel caso specifico si è focalizzato lo studio sulla condivisione di miglioramenti di processo e di problematiche o errori. È stata posta una particolare attenzione anche alle relazioni informali all'interno dell'azienda, con l'obiettivo di individuare la correlazione tra i rapporti extra-professionali nel luogo di lavoro e la condivisione di informazioni e opportunità in un'impresa. L'analisi delle dinamiche comunicative e l'individuazione degli attori più centrali del flusso informativo, permettono di comprendere le opportunità di crescita e sviluppo della rete di condivisione. La valutazione delle relazioni e l’individuazione degli attori e delle connessioni chiave fornisce un quadro dettagliato della situazione all'interno dell'azienda.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'utilizzo di diete a base di microalghe per l'allevamento di novellame di molluschi bivalvi sta ottenendo sempre maggiore interesse data la crescente domanda di mercato nel settore dell'acquacoltura. Le dimensioni cellulari, la composizione biochimica e la digeribilità della parete cellulare delle microalghe sono fattori fondamentali per la loro applicabilità nell'alimentazione dei bivalvi; anche il contenuto di acidi grassi essenziali quali EPA e DHA ha un ruolo rilevante poiché influenza il tasso di crescita e di sviluppo degli animali. Nel presente studio sono stati utilizzati due ceppi autoctoni della Sacca di Goro del genere Thalassiosira, Pheaodactylum tricornutum, l'alga verde Tetraselmis chui e l'aptofita T-Iso, quest’ultima ampiamente utilizzata nell'alimentazione di diverse specie di molluschi bivalvi. Gli esperimenti condotti hanno permesso di (1) caratterizzare la crescita e la composizione biochimica delle 5 specie microalgali e (2) di analizzare l'applicabilità delle stesse tramite prove di alimentazione su larve e novellame di Ruditapes philippinarum, al fine di ottimizzarne la produzione. I risultati migliori, per numero di sopravvissuti e taglia raggiunta, sono stati ottenuti con larve alimentate con dieta plurispecifica a base di T-Iso e Thalassiosira ceppo A in rapporto 2:1; Thalassiosira ceppo A e P. tricornutum, in diete monospecifiche, sono state identificate come le più appetibili e assimilabili dal novellame, il quale mostra buoni valori del tasso massimo di clearance (2,17±0,25 e 2,27±0,15 L h-1, rispettivamente) e di efficienza di assorbimento del cibo (67 e 46%). Si è trattato di uno studio preliminare volto a verificare eventuali miglioramenti legati all’utilizzo di diete diversificate rispetto a quelle standardizzate di solito impiego; la ricerca di nuove specie algali e ulteriori analisi sulle attuali specie disponibili e sulla loro applicabilità potranno essere utili alla crescita sostenibile del settore dell’acquacoltura.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dagli anni '40, la produzione di materiali plastici è aumentata in modo esponenziale. La loro versatilità, resistenza ed economicità li hanno resi accessibili globalmente. Questi vantaggi hanno comportato però molti danni a ecosistemi e specie marine, tra cui anche Caretta caretta. Recenti studi hanno dimostrato, ad esempio, la capacità delle microplastiche di influenzare negativamente l’ambiente di incubazione delle uova, causando impatti sullo sviluppo embrionale e sul successo di schiusa. I metalli pesanti svolgono un ruolo chiave nella contaminazione oceanica poiché molto stabili e non biodegradabili. Gli organismi non riescono quindi a eliminarli, ma tendono ad accumularli nei tessuti, determinando conseguentemente il loro inserimento nella catena trofica. Recentemente, l'analisi di campioni di sangue di esemplari vivi di tartaruga marina ha consentito di studiare le loro potenziali implicazioni sulla salute e sul successo riproduttivo delle popolazioni. Tuttavia, poche informazioni sono ancora disponibili sull'esposizione delle uova ai metalli e sul trasferimento di questi dalla madre all'embrione. In questo lavoro di tesi si è andati quindi a verificare i livelli di esposizione ai metalli pesanti, mediante l’analisi all’ICP-OES delle uova, e i livelli di esposizione alle microplastiche, grazie a un nuovo metodo basato sul principio della flottazione della densità applicato sui campioni di sabbia, nei nidi di C. caretta rinvenuti durante la stagione di deposizione 2021 lungo la costa ionica della provincia di Catanzaro. Successivamente è stata valutata la correlazione tra i livelli di esposizione e il successo di schiusa della specie: i risultati ottenuti hanno permesso di affermare che per le concentrazioni dei metalli si ha una correlazione negativa (p=0,022) tra il contenuto di Pb in tuorlo e albume combinati e il successo di schiusa registrato nei nidi presi in analisi, mentre ciò non è stato possibile per le concentrazioni delle microplastiche.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

In letteratura è noto che la variabilità cinematica dei bambini durante il cammino è molto maggiore se confrontata con quella di soggetti adulti. Ciò rende difficile definire lo sviluppo del cammino basandosi sull'analisi di angoli articolari. In questo lavoro è stata valutata la traiettoria del centro di massa come possibile fattore caratterizzante la maturazione del cammino durante la crescita: l’ipotesi è che questa risulti, nei bambini, più ripetibile rispetto al pattern degli angoli articolari. È stata analizzata la cinematica del cammino di soggetti appartenenti a tre fasce di età differenti (4 anni, 6 anni, giovani adulti), mediante un sistema di stereofotogrammetria e marker riflettenti (protocollo Plug-in Gait). Lo studio è stato condotto avvalendosi di software per l’acquisizione, l’elaborazione (BTS Smart-DX) e l’analisi statistica (SPM1D) dei parametri d’interesse. La variabilità è stata analizzata secondo tre diverse modalità (Inter-subject, Intra-subject, Inter-test). È stato osservato un trend simile in termini di variabilità del centro di massa tra bambini e adulti. La variabilità cinematica degli angoli articolari è invece risultata più alta nei bambini, in maniera significativa per tutte e tre le modalità citate. L’ipotesi è stata confermata per i soggetti che hanno preso parte allo studio: i bambini, pur avendo raggiunto un relativo sviluppo del cammino, presentano una variabilità segmentale maggiore di quella degli adulti, mentre la variabilità della traiettoria del centro di massa è risultata essere simile a quella dei soggetti maturi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Individuazione dei valori ottimali di crescita di dinoflagellate bentoniche, valutazione della tossicità e di interazioni allelopatiche. Il fitoplancton rappresenta la base della catena trofica in ambiente marino, nonché oltre la metà  della produzione primaria a livello mondiale. Le dinoflagellate, assieme alle diatomee, costituiscono la maggior parte del fitoplancton, comprendendo numerose e diversificate specie di microalghe dalla differente distribuzione, ecologia e fisiologia. Alcune specie appartenenti a tale gruppo sono in grado di dare luogo, in determinate condizioni, a estesi fenomeni di fioriture algali, che diventano particolarmente impattanti se le specie coinvolte sono responsabili della produzione di biotossine, le quali possono direttamente uccidere altri organismi o accumularsi nei loro tessuti. Gli effetti nocivi di questi fenomeni si ripercuotono pesantemente sull'ecosistema marino, con ingenti morie di organismi acquatici (da pesci a molluschi, dal bentos al necton) e profonde alterazioni nelle comunità specifiche. Un forte coinvolgimento si ha di conseguenza anche per le attività umane, in seguito a forti esternalità negative su pesca, turismo, attività ricreative, o spesso con rischi direttamente correlati alla salute umana, dovuti perlopiù ad ingestione di organismi contaminati o all'inalazione di tossine per via aerea. Negli ultimi anni le fioriture algali tossiche si sono fortemente intensificate in distribuzione, estensione e frequenza, attirando l'interesse globale della comunità scientifica. Diversi studi condotti in questo senso hanno portato all'identificazione di numerose specie di dinoflagellate tossiche e all'isolamento di una lunga serie di composti chimici con effetti dannosi da esse sintetizzate. Tuttavia si conosce ancora ben poco sull'ecologia di queste specie, in particolare su quali siano i fattori che possano indurre o regolare la proliferazione e lo sviluppo di un bloom algale. Questo studio si è focalizzato su due specie di dinoflagellate bentoniche tossiche, Ostreopsis ovata e Coolia monotis, entrambe appartenenti alla famiglia Ostreopsidaceae, note già da tempo nei paesi tropicali poiché associate alla sindrome da ciguatera. Negli ultimi anni, Ostreopsis ovata è stata oggetto di numerose ricerche in Europa, poiché ha dato luogo a fenomeni di bloom, collegati con danni respiratori nell'uomo, anche lungo i litorali italiani; soltanto recentemente grazie ad una tecnica analitica basata sulla combinazione di cromatografia liquida e spettrometria di massa (LC-MS), è stato possibile isolare la diverse tossine responsabili. Durante i vari monitoraggi e campionamenti delle acque, questa dinoflagellata è stata sempre riscontrata in presenza di Coolia monotis (e Prorocentrum lima), di cui invece si conosce ben poco, visto che la sua tossicità in Mediterraneo non è ancora stata dimostrata, né la sua tossina caratterizzata. Il primo step di questo studio è stato quello di valutare, attraverso il mantenimento di colture in vitro, l'importanza della temperatura nella crescita di O. ovata e C. monotis (singolarmente) provenienti dalla zona del monte Conero (Ancona, Marche). Esistono già studi di questo tipo su ceppi adriatici di O. ovata, tuttavia è stato effettuato un esperimento similare utilizzando un nuovo ceppo, isolato in anni recenti; per C. monotis invece non sono presenti molti studi in letteratura, in particolare nessuno riguardante ceppi italiani. La valutazione della crescita è stata effettuata attraverso conteggio delle cellule, misura dell'efficienza fotosintetica e consumo dei macronutrienti. Quindi, visto che le due specie vivono in associazione nell'ambiente marino, si è cercato di evidenziare l'instaurarsi di eventuali processi competitivi o di fenomeni di allelopatia. Dall'analisi dei risultati è emerso che, se coltivate individualmente, sia C. monotis che O. ovata mostrano un optimum di crescita alla temperatura di 20°C, con tasso di crescita, numero di cellule e rendimento fotosintetico raggiunti più elevati, seppure non di molto rispetto alle colture a 25°C. Le colture a 30°C al contrario hanno mostrato valori sensibilmente inferiori. Se fatte crescere assieme, invece, C. monotis mantiene lo stesso pattern riscontrato nella monoculture a 20 e 25°C, seppur raggiungendo numeri di cellule inferiori, mentre a 30°C ha una crescita bassissima. Al contrario, O. ovata alla temperatura più elevata raggiunge lo stesso numero di cellule della monocultura, alla temperatura intermedia registra il tasso di crescita, ma non il numero di cellule, più elevato, mentre alla temperatura più bassa (che era l'optimum per la monocultura) si ha il maggior stress per la specie, evidenziando forti fenomeni di competizione. Esperimenti su C. monotis fatta crescere in un filtrato di O. ovata non hanno invece chiarito l'esistenza o meno di eventuali effetti allelopatici di Ostreopsis su Coolia, dato che non sono apparse differenze evidenti tra il controllo e il filtrato, mentre hanno messo in luce l'importanza dei batteri associati alle microalghe come supporto alla loro crescita, poiché le colture cresciute in filtrato sterile hanno manifestato tutte quante un rendimento quantico fotosintetico inferiore.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo stato attuale del mercato continua a dimostrare come l'interesse del pubblico verso i dispositivi mobili sia in costante crescita; se fino a pochi anni fa il termine smartphone era ai piu' privo di significato, ora e' abbastanza comune per giovani e adulti essere concentrati su piccoli dispositivi dove si possono contattare i clienti via e-mail, verificare lo stato di avanzamento dei processi aziendali, consultare il web e cosi' via. L'obiettivo di questa tesi e' introdurre l'utilizzo di diverse tipologie di framework, prendendo come riferimento i sistemi operativi per i dispositivi mobili e quello di presentare soluzioni (attraverso i framework) per lo sviluppo di applicazioni mobili su diverse piattaforme software.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La ricerca indaga la praticabilità di uno sviluppo urbano a crescita zero quale risposta al consumo di territorio ed allo sprawl urbano. Con ciò si intende il soddisfacimento del fabbisogno abitativo di un determinato arco temporale all'interno del tessuto urbano consolidato, operando tramite la densificazione della città, costruendo all'interno dei vuoti urbani e degli spazi di risulta, ed evitando di consumare ulteriore terreno agricolo. Lo studio viene declinato prendendo ad oggetto dell'analisi la città di Faenza e come orizzonte temporale il 2032. Il tema prevalente della ricerca riguarda la destinazione residenziale che, in base al principio della mixitè, viene portata anche nelle aree produttive e artigianali nel tentativo di contrastare la monofunzionalità dei settori urbani. Calcolate le quantità edilizie necessarie a soddisfare le esigenze abitative previste, sono stati ipotizzati numerosi interventi all'interno di alcuni tra i vuoti precedentemente catalogati; i progetti sono compresi all'interno di comparti per cui sono definite le diverse destinazioni d'uso in percentuali differenti a seconda della situazione urbana in cui sono inseriti. Di tutti gli interventi proposti, ne sono stati estratti due, localizzati in aree analoghe per vocazione e caratteristiche. Su questi si è effettuato un approfondimento progettuale alla scala architettonica quale verifica delle possibilità offerte dall'approccio urbanistico che ha guidato il masterplan.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il Web nel corso della sua esistenza ha subito un mutamento dovuto in parte dalle richieste del mercato, ma soprattutto dall’evoluzione e la nascita costante delle numerose tecnologie coinvolte in esso. Si è passati da un’iniziale semplice diffusione di contenuti statici, ad una successiva collezione di siti web, dapprima con limitate presenze di dinamicità e interattività (a causa dei limiti tecnologici), ma successivamente poi evoluti alle attuali applicazioni web moderne che hanno colmato il gap con le applicazioni desktop, sia a livello tecnologico, che a livello di diffusione effettiva sul mercato. Tali applicazioni web moderne possono presentare un grado di complessità paragonabile in tutto e per tutto ai sistemi software desktop tradizionali; le tecnologie web hanno subito nel tempo un evoluzione legata ai cambiamenti del web stesso e tra le tecnologie più diffuse troviamo JavaScript, un linguaggio di scripting nato per dare dinamicità ai siti web che si ritrova tutt’ora ad essere utilizzato come linguaggio di programmazione di applicazioni altamente strutturate. Nel corso degli anni la comunità di sviluppo che ruota intorno a JavaScript ha prodotto numerose librerie al supporto del linguaggio dotando così gli sviluppatori di un linguaggio completo in grado di far realizzare applicazioni web avanzate. Le recenti evoluzioni dei motori javascript presenti nei browser hanno inoltre incrementato le prestazioni del linguaggio consacrandone la sua leadership nei confronti dei linguaggi concorrenti. Negli ultimi anni a causa della crescita della complessità delle applicazioni web, javascript è stato messo molto in discussione in quanto come linguaggio non offre le classiche astrazioni consolidate nel tempo per la programmazione altamente strutturata; per questo motivo sono nati linguaggi orientati alla programmazione ad oggetti per il web che si pongono come obiettivo la risoluzione di questo problema: tra questi si trovano linguaggi che hanno l’ambizione di soppiantare JavaScript come ad esempio Dart creato da Google, oppure altri che invece sfruttano JavaScript come linguaggio base al quale aggiungono le caratteristiche mancanti e, mediante il processo di compilazione, producono codice JavaScript puro compatibile con i motori JavaScript presenti nei browser. JavaScript storicamente fu introdotto come linguaggio sia per la programmazione client-side, che per la controparte server-side, ma per vari motivi (la forte concorrenza, basse performance, etc.) ebbe successo solo come linguaggio per la programmazione client; le recenti evoluzioni del linguaggio lo hanno però riportato in auge anche per la programmazione server-side, soprattutto per i miglioramenti delle performance, ma anche per la sua naturale predisposizione per la programmazione event-driven, paradigma alternativo al multi-threading per la programmazione concorrente. Un’applicazione web di elevata complessità al giorno d’oggi può quindi essere interamente sviluppata utilizzando il linguaggio JavaScript, acquisendone sia i suoi vantaggi che gli svantaggi; le nuove tecnologie introdotte ambiscono quindi a diventare la soluzione per i problemi presenti in JavaScript e di conseguenza si propongono come potenziali nuovi linguaggi completi per la programmazione web del futuro, anticipando anche le prossime evoluzioni delle tecnologie già esistenti preannunciate dagli enti standard della programmazione web, il W3C ed ECMAScript. In questa tesi saranno affrontate le tematiche appena introdotte confrontando tra loro le tecnologie in gioco con lo scopo di ottenere un’ampia panoramica delle soluzioni che uno sviluppatore web dovrà prendere in considerazione per realizzare un sistema di importanti dimensioni; in particolare sarà approfondito il linguaggio TypeScript proposto da Microsoft, il quale è nato in successione a Dart apparentemente con lo stesso scopo, ma grazie alla compatibilità con JavaScript e soprattutto con il vasto mondo di librerie legate ad esso nate in questi ultimi anni, si presenta nel mercato come tecnologia facile da apprendere per tutti gli sviluppatori che già da tempo hanno sviluppato abilità nella programmazione JavaScript.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Microprocessori basati su singolo processore (CPU), hanno visto una rapida crescita di performances ed un abbattimento dei costi per circa venti anni. Questi microprocessori hanno portato una potenza di calcolo nell’ordine del GFLOPS (Giga Floating Point Operation per Second) sui PC Desktop e centinaia di GFLOPS su clusters di server. Questa ascesa ha portato nuove funzionalità nei programmi, migliori interfacce utente e tanti altri vantaggi. Tuttavia questa crescita ha subito un brusco rallentamento nel 2003 a causa di consumi energetici sempre più elevati e problemi di dissipazione termica, che hanno impedito incrementi di frequenza di clock. I limiti fisici del silicio erano sempre più vicini. Per ovviare al problema i produttori di CPU (Central Processing Unit) hanno iniziato a progettare microprocessori multicore, scelta che ha avuto un impatto notevole sulla comunità degli sviluppatori, abituati a considerare il software come una serie di comandi sequenziali. Quindi i programmi che avevano sempre giovato di miglioramenti di prestazioni ad ogni nuova generazione di CPU, non hanno avuto incrementi di performance, in quanto essendo eseguiti su un solo core, non beneficiavano dell’intera potenza della CPU. Per sfruttare appieno la potenza delle nuove CPU la programmazione concorrente, precedentemente utilizzata solo su sistemi costosi o supercomputers, è diventata una pratica sempre più utilizzata dagli sviluppatori. Allo stesso tempo, l’industria videoludica ha conquistato una fetta di mercato notevole: solo nel 2013 verranno spesi quasi 100 miliardi di dollari fra hardware e software dedicati al gaming. Le software houses impegnate nello sviluppo di videogames, per rendere i loro titoli più accattivanti, puntano su motori grafici sempre più potenti e spesso scarsamente ottimizzati, rendendoli estremamente esosi in termini di performance. Per questo motivo i produttori di GPU (Graphic Processing Unit), specialmente nell’ultimo decennio, hanno dato vita ad una vera e propria rincorsa alle performances che li ha portati ad ottenere dei prodotti con capacità di calcolo vertiginose. Ma al contrario delle CPU che agli inizi del 2000 intrapresero la strada del multicore per continuare a favorire programmi sequenziali, le GPU sono diventate manycore, ovvero con centinaia e centinaia di piccoli cores che eseguono calcoli in parallelo. Questa immensa capacità di calcolo può essere utilizzata in altri campi applicativi? La risposta è si e l’obiettivo di questa tesi è proprio quello di constatare allo stato attuale, in che modo e con quale efficienza pùo un software generico, avvalersi dell’utilizzo della GPU invece della CPU.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Negli ultimi anni il mondo del mobile computing ha avuto una vera e propria crescita esponenziale grazie soprattutto all'entrata in scena dello smartphone. In realtà, per essere più precisi, è bene bene sottolineare che gli smartphone esistevano già da tempo ma il loro utilizzo era in particolar modo indirizzato ai professionisti per il quale era, ma continua ad essere tutt'oggi, un valido supporto in campo lavorativo, basti pensare all'importanza della comunicazione via e-mail e non solo. Seppur comunque fossero già presenti da tempo, i primi smartphone non godevano di certo di un touch-screen sofisticato come quello odierno nè in essi erano presenti funzionalità tipiche dei dispositivi che troviamo ad oggi sul mercato. Una svolta decisiva è stata segnata dall'introduzione dell'iPhone e successivamente dell'AppStore, grazie a questi la programmazione per i dispositivi mobile ha preso sempre più piede diventando un vero e proprio business. In un secondo momento alla programmazione nativa si affiancarono le tecnologie web. Questo mio lavoro di tesi si pone l'obiettivo di studiare in primis la struttura, caratteristiche e peculiarità del sistema operativo iOS e analizzare il framework PhoneGap al fine di riuscire a confrontarne i vari aspetti fondamentali anche attraverso lo sviluppo di piccole applicazioni. Così facendo, quindi scendendo nei dettagli di quelle che possono essere le differenze rilevanti, mi pongo l'obiettivo di valutarne relativi pro e contro al fine di fare una scelta del tutto personale tra iOS e PhoneGap.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’emanazione del Decreto 5 dicembre 2013, ha inaugurato una nuova stagione per il settore energetico italiano, dando vita anche in Italia, in linea con gli altri paesi europei, alla possibilità di valorizzare il biogas, prodotto a seguito di un processo di digestione anaerobica, come biometano, un gas con maggiore contenuto energetico che a seguito di opportuni trattamenti, può essere paragonabile al gas naturale. Il lavoro svolto pertanto si pone come obiettivo quello di individuare gli elementi peculiari che potrebbero favorire lo sviluppo e la crescita del biometano nel contesto italiano.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Quando si parla di architetture di controllo in ambito Web, il Modello ad Eventi è indubbiamente quello più diffuso e adottato. L’asincronicità e l’elevata interazione con l’utente sono caratteristiche tipiche delle Web Applications, ed un architettura ad eventi, grazie all’adozione del suo tipico ciclo di controllo chiamato Event Loop, fornisce un'astrazione semplice ma sufficientemente espressiva per soddisfare tali requisiti. La crescita di Internet e delle tecnologie ad esso associate, assieme alle recenti conquiste in ambito di CPU multi-core, ha fornito terreno fertile per lo sviluppo di Web Applications sempre più complesse. Questo aumento di complessità ha portato però alla luce alcuni limiti del modello ad eventi, ancora oggi non del tutto risolti. Con questo lavoro si intende proporre un differente approccio a questa tipologia di problemi, che superi i limiti riscontrati nel modello ad eventi proponendo un architettura diversa, nata in ambito di IA ma che sta guadagno popolarità anche nel general-purpose: il Modello ad Agenti. Le architetture ad agenti adottano un ciclo di controllo simile all’Event Loop del modello ad eventi, ma con alcune profonde differenze: il Control Loop. Lo scopo di questa tesi sarà dunque approfondire le due tipologie di architetture evidenziandone le differenze, mostrando cosa significa affrontare un progetto e lo sviluppo di una Web Applications avendo tecnologie diverse con differenti cicli di controllo, mettendo in luce pregi e difetti dei due approcci.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo sviluppo hardware nel campo della robotica ha raggiunto negli ultimi anni livelli impressionanti ed è in continua crescita, e di pari passo si è espansa l’eterogeneità delle forme che può assumere, dalle tipologie basate su movimento a terra ai droni volanti, fino a forme più sofisticate di robot umanoidi che cercano di emularne il comportamento. Se da un lato ora possiamo disporre di hardware sempre più potente ed efficiente a costi sempre minori, dall’altro programmare il comportamento che un robot deve tenere nelle svariate circostanze in cui può imbattersi, nel poter portare a compimento il proprio obbiettivo, risulta essere sempre più complesso. Dopo una breve introduzione alla robotica e alle difficoltà che deve affrontare e una panoramica sui robot, cosa siano e come siano strutturati, fulcro della tesi sarà l’esposizione delle caratteristiche principali di ROS, Robot Operating System, come piattaforma di sviluppo software nel campo della robotica, e si concluderà con un semplice caso di studio in cui ne verrà messo in mostra concretamente l’utilizzo.