1000 resultados para Geometria nella scuola primariaSoftware didatticoIntegrazione di Java e Mathematica
Resumo:
Transmissible spongiform encephalopathies (TSEs), or prion diseases, are neurodegenerative disorders that affect humans and mammals. Creutzfeldt-Jakob disease (CJD), the most common TSE in humans, can be sporadic (sCJD), genetic (gCJD), or acquired by infection. All TSEs are characterised by the accumulation of PrPSc, a misfolded form of the cellular protein PrPC. PrPSc is insoluble in detergents, partially resistant to proteolysis and shows a highly enriched β-sheet secondary structure. Six clinico-pathological phenotypes of sCJD have been characterized which correlate at the molecular level with two types (1 or 2) of PrPSc with distinctive physicochemical properties and the genotype at the polymorphic (methionine or valine) codon 129 of the prion protein gene. According to the protein-only hypothesis, which postulates that prions are composed exclusively of PrPSc, the strains of prions that are largely responsible for the wide spectrum of TSE phenotypes are enciphered in PrPSc conformation. In support to this view, studies mainly conducted in experimental scrapie, have shown that several prion strains can be identified based on distinguishing PrPSc biochemical properties. To further contribute to the understanding of the molecular basis of strains and to develop more sensitive strain typing assays in humans we have analyzed PrPSc biochemical properties in two experimental setting. In the first we compared the size of the core after protease digestion and the glycoform pattern of PrPSc before and after transmission of human prions to non human primates or bank voles, whereas in the second we analyzed the conformational stability of PrPSc associated with sCJD, vCJD or fCJD using guanidine hydrochloride (GdnHCl) as denaturant. Combining the results of the two studies, we were able to distinguish five human strains for at least one biochemical property. The present data extend our knowledge about the extent of strain variation and its relationship with PrPSc properties in human TSEs.
Resumo:
Background: Nilotinib is a potent and selective BCR-ABL inhibitor. The phase 3 ENESTnd trial demonstrated superior efficacy nilotinib vs imatinib, with higher and faster molecular responses. After 24 months, the rates of progression to accelerated-blastic phase (ABP) were 0.7% and 1.1% with nilotinib 300mg and 400mg BID, respectively, significantly lower compared to imatinib (4.2%). Nilotinib has been approved for the frontline treatment of Ph+ CML. With imatinib 400mg (IRIS trial), the rate of any event and of progression to ABP were higher during the first 3 years. Consequently, a confirmation of the durability of responses to nilotinib beyond 3 years is extremely important. Aims: To evaluate the response and the outcome of patients treated for 3 years with nilotinib 400mg BID as frontline therapy. Methods: A multicentre phase 2 trial was conducted by the GIMEMA CML WP (ClinicalTrials.gov.NCT00481052). Minimum 36-month follow-up data for all patients will be presented. Definitions: Major Molecular Response (MMR): BCR-ABL/ABL ratio <0,1%IS; Complete Molecular Response (CMR): undetectable transcript levels with ≥10,000 ABL transcripts; failures: according to the revised ELN recommendations; events: failures and treatment discontinuation for any reason. All the analysis has been made according to the intention-to-treat principle. Results: 73 patients enrolled: median age 51 years; 45% low, 41% intermediate and 14% high Sokal risk. The cumulative incidence of CCgR at 12 months was 100%. CCgR at each milestone: 78%, 96%, 96%, 95%, 92% at 3, 6, 12, 18 and 24 months, respectively. The overall estimated probability of MMR was 97%, while the rates of MMR at 3, 6, 12, 18 and 24 months were 52%, 66%, 85%, 81% and 82%, respectively. The overall estimated probability of CMR was 79%, while the rates of CMR at 12 and 24 months were 12% and 27%, respectively. No patient achieving a MMR progressed to AP. Only one patient progressed at 6 months to ABP and subsequently died (high Sokal risk, T315I mutation). Adverse events were mostly grade 1 or 2 and manageable with appropriate dose adaptations. During the first 12 months, the mean daily dose was 600-800mg in 74% of patients. The nilotinib last daily dose was as follows: 800mg in 46 (63%) patients, 600mg in 3 (4%) patients and 400mg in 18 (25%), 6 permanent discontinuations. Detail of discontinuation: 1 patient progressed to ABP; 3 patients had recurrent episodes of amylase and/or lipase increase (no pancreatitis); 1 patient had atrial fibrillation (unrelated to study drug) and 1 patient died after 32 months of mental deterioration and starvation (unrelated to study drug). Two patients are currently on imatinib second-line and 2 on dasatinib third-line. With a median follow-up of 39 months, the estimated probability of overall survival, progression-free survival and failure-free survival was 97%, the estimated probability of event-free survival was 91%. Conclusions: The rate of failures was very low during the first 3 years. Responses remain stable. The high rates of responses achieved during the first 12 months are being translated into optimal outcome for most of patients.
Resumo:
Nella presente tesi ci siamo occupati dell'equazione di curvatura di Gauss-Levi, prima introducendo le nozioni necessarie alla sua definizione, poi cercandone soluzioni viscose. A tale scopo abbiamo introdotto in generale la nozione di soluzione viscosa per operatori ellittici degeneri, dimostrandone l'esistenza grazie al Principio del Confronto e al Metodo di Perron. Abbiamo infine riportato alcuni risultati che collegano le soluzioni viscose dell'equazione di curvatura, a quelle classiche.
Resumo:
Membrane lipid rafts are detergent-resistant microdomains containing glycosphingolipids, cholesterol and glycosylphosphatidylinositol-linked proteins; they seem to be actively involved in many cellular processes including signal transduction, apoptosis, cell adhesion and migration. Lipid rafts may represent important functional platforms where redox signals are produced and transmitted in response to various agonists or stimuli. In addition, a new concept is emerging that could be used to define the interactions or amplification of both redox signalling and lipid raft-associated signalling. This concept is characterized by redox-mediated feed forward amplification in lipid platforms. It is proposed that lipid rafts are formed in response to various stimuli; for instance, NAD(P)H oxidase (Nox) subunits are aggregated or recruited in these platforms, increasing Nox activity. Superoxide and hydrogen peroxide generation could induce various regulatory activities, such as the induction of glucose transport activity and proliferation in leukaemia cells. The aim of our study is to probe: i) the involvement of lipid rafts in the modulation of the glucose transporter Glut1 in human acute leukemia cells; ii) the involvement of plasma membrane caveolae/lipid rafts in VEGF-mediated redox signaling via Nox activation in human leukemic cells; iii) the role of p66shc, an adaptor protein, in VEGF signaling and ROS production in endothelial cells (ECs); iv) the role of Sindecan-2, a transmembrane heparan sulphate proteoglycan, in VEGF signaling and physiological response in ECs and v) the antioxidant and pro-apoptotic activities of simple dietary phenolic acids, i. e. caffeic, syringic and protocatechuic acids in leukemia cells, characterized by a very high ROS content. Our results suggest that the role played by NAD(P)H oxidase-derived ROS in the regulation of glucose uptake, proliferation and migration of leukaemia and endothelial cells could likely occur through the control of lipid raft-associated signalling.
Resumo:
In questa tesi di laurea si affronta l’analisi di diversi modelli per il calcolo della capacità di un’intersezione a rotatoria: alcuni di questi sono di tipo empirico, altri invece sono di tipo teorico (teoria del gap acceptance). Innanzitutto si descrivono le caratteristiche di tutti i modelli studiati e si esaminano i risultati ottenuti nel calcolo della capacità al variare del flusso circolante, effettuato su un campione di venti rotatorie. In particolare si cerca di confrontare tra loro i vari modelli e di interpretare il significato dei parametri che compaiono nelle diverse formule. Successivamente si amplia l’analisi, utilizzando i dati raccolti come punto di partenza per una serie di altre elaborazioni ed interpolazioni. Alla base di questa seconda parte dello studio c’è l’idea di provare a vedere se sia possibile ricavare un nuovo modello, derivante da quelli studiati, che possa riassumerli in maniera semplice e aiutare a chiarire quali sono i parametri più importanti dai quali dipende il valore di capacità di una rotatoria. Questo nuovo modello dovrebbe eventualmente servire più che altro per interpretare i modelli studiati e per capire se uno di questi si comporti meglio degli altri in situazioni particolari oppure se sia più adatto in determinate condizioni di traffico piuttosto che in altre. Uno degli obiettivi principali di questo studio è infatti quello di provare a capire se la capacità di una rotatoria è influenzata maggiormente da aspetti geometrici, legati quindi alla forma e alle dimensioni della rotatoria stessa, oppure se un ruolo predominante è svolto da fattori comportamentali, legati quindi all’interazione tra i veicoli e ai processi di scelta degli utenti, che devono decidere se immettersi o meno nella rotatoria.
Resumo:
Le leghe di alluminio da fonderia rivestono un ruolo fondamentale in ambito industriale e in particolare il settore dei trasporti ha notevolmente incrementato il loro impiego per la realizzazione di componenti strutturali. Al fine di aumentare ulteriormente la resistenza specifica, tali leghe possono essere impiegate come matrici per lo sviluppo di compositi (Metal Matrix Composites, MMCs), le cui fasi di rinforzo possono avere diversa composizione, forma e dimensione. In particolare, nel caso di rinforzo particellare, più le particelle sono piccole e finemente disperse nella matrice, più elevato può essere l’incremento delle prestazioni meccaniche. In quest’ottica, la ricerca ha portato allo sviluppo dapprima di compositi caratterizzati da un rinforzo micrometrico e, in anni recenti, si sta concentrando sul rinforzo nanometrico (Metal Matrix Nano Composites, MMNCs). I nano-compositi possono essere ottenuti attraverso metodologie differenti: tecniche in situ, in cui il rinforzo viene generato all’interno della matrice attraverso opportune reazioni chimiche, e tecniche ex situ, in cui i dispersoidi vengono inseriti nella matrice fusa, una volta già formati. Sebbene l’incremento prestazionale ottenibile da tali materiali sia stato dimostrato, è necessario far fronte ad alcune problematiche connesse a ciascuna tecnologia produttiva quali, ad esempio, il controllo dei parametri di processo, per quanto riguarda le tecniche in situ, e l’ottenimento di una efficace dispersione delle nano-particelle all’interno della matrice, nel caso delle metodologie ex-situ. Lo scopo della presente attività di tesi è lo studio di fattibilità, basato anche su un’ampia indagine bibliografica, e l’implementazione di metodologie produttive, su scala di laboratorio, volte allo sviluppo di MMNCs a matrice in lega di alluminio (A356, Al-Si-Mg). L’interesse è stato posto in primo luogo sul processo in situ di gas bubbling, mirato all’ottenimento di rinforzo d’allumina, indotto dalla reazione tra matrice metallica e gas ossidante (in questo caso aria secca industriale). In secondo luogo, dal punto di vista delle tecniche ex situ, è stato approfondito l’aspetto della dispersione delle particelle di rinforzo nel fuso, prestando particolare attenzione alla tecnica di trattamento ultrasonico del metallo.
Resumo:
La tesi tratta del progetto e della realizzazione di un riferimento in tensione simmetrico e stabile in temperatura, realizzato in tecnologia CMOS. Nella progettazione analogica ad alta precisione ha assunto sempre più importanza il problema della realizzazione di riferimenti in tensione stabili in temperatura. Nella maggior parte dei casi vengono presentati Bandgap, ovvero riferimenti in tensione che sfruttano l'andamento in temperatura dell'energy gap del silicio al fine di ottenere una tensione costante in un ampio range di temperatura. Tale architettura risulta utile nei sistemi ad alimentazione singola compresa fra 0 e Vdd essendo in grado di generare una singola tensione di riferimento del valore tipico di 1.2V. Nella tesi viene presentato un riferimento in tensione in grado di offrire le stesse prestazioni di un Bandgap per quanto riguarda la variazione in temperatura ma in grado di lavorare sia in sistemi ad alimentazione singola che ad alimentazione duale. Il circuito proposto e' in grado di generare due tensioni, simmetriche rispetto a un riferimento dato, del valore nominale di ±450mV. All'interno della tesi viene descritto il progetto di due diverse architetture, entrambe in grado di generare le tensioni con le specifiche richieste. Le due architetture sono poi state confrontate analizzando in particolare la stabilità in temperatura, la potenza dissipata, il PSRR (Power Supply Rejection Ratio) e la simmetria delle tensioni generate. Al termine dell'analisi è stato poi implementato su silicio il circuito che garantiva le prestazioni migliori. In sede di disegno del layout su silicio sono stati affrontati i problemi derivanti dall'adattamento dei componenti al fine di ottenere una maggiore insensibilità del circuito stesso alle incertezze legate al processo di realizzazione. Infine sono state effettuate le misurazioni attraverso una probe station a 4 sonde per verificare il corretto funzionamento del circuito e le sue prestazioni.
Resumo:
I nanomateriali presentano proprietà molto differenti dai corrispondenti materiali bulk; per questo motivo, negli ultimi anni, se ne è sempre più diffuso l’utilizzo. In particolare, recentemente ha suscitato grande interesse l’impiego di nanoparticelle bimetalliche, le cui proprietà ottiche, morfologiche e dimensionali possono essere modulate sulla base della composizione. L’interesse del mondo industriale allo studio di materiali con dimensioni nano-metriche deriva principalmente dalle loro possibili applicazioni su grande scala ed è quindi di fondamentale importanza la messa a punto di metodologie di sintesi versatili, facilmente scalabili ed a basso impatto ambientale. L’ottimizzazione della sintesi è un aspetto molto importante in quanto deve assicurare un accurato controllo di forma, dimensioni e composizione. A tale scopo è stata sviluppata una sintesi a basso impatto ambientale, in acqua, basata sull’azione riducente del sistema glucosio – NaOH, che permette di ottenere nanoparticelle stabili e con dimensioni omogenee. Nel corso dello studio il riscaldamento è stato effettuato mediante un sistema a microonde: una tecnologia affidabile e sicura che permette un riscaldamento rapido ed omogeneo. La tesi ha come scopo:• l’ottimizzazione e la caratterizzazione di nanosospensioni monometalliche di Pd mediante la sintesi già ottimizzata in lavori precedenti per i metalli: Au, Ag e Cu; •lo studio di sistemi bimetallici Pd/Cu e Pd/Au con morfologia di lega, ottenuti per co-riduzione dei sali precursori; •lo studio dell’attività catalitica delle nanoparticelle sintetizzate nella reazione di riduzione del 4-nitrofenolo a 4-amminofenolo mediante NaBH4; •lo studio della supportazione su carbone di Pd/Au per applicazioni elettrocatalitiche. Per poter studiare e valutare l’eventuale presenza di effetti sinergici tra i metalli coinvolti nella sintesi sono stati confrontati sistemi monometallici con sistemi bimetallici a differenti composizioni (Pd/Cu e Pd/Au). In particolare è stato possibile apprezzare un miglioramento delle prestazioni catalitiche per i sistemi bimetallici Pd/Au rispetto ai metalli di partenza, al contrario i sistemi bimetallici Pd/Cu mostrano un peggioramento dell’attività catalitica all’aumentare del contenuto di rame. La nanosospensione Pd/Au risultata con le maggiori prestazioni catalitiche, è stata supportata su carbone per applicazioni nel campo dell’elettrocatalisi. Da uno studio preliminare sulle tecniche di supportazione è emerso che il metodo migliore per depositare le nanoparticelle sul carbone è l’impregnazione fisica.
Resumo:
Il seguente elaborato è il risultato di uno stage di sei mesi, svolto presso l’azienda Bosch Rexroth Oil Control S.p.A.. L’ente presso cui è stato svolto il tirocinio è l’Industrial Engineering. In particolare è stata compiuta un’analisi dei flussi delle cartucce meccaniche, una famiglia di valvole oleodinamiche. Il lavoro si è sviluppato in tre fasi: nella prima è stata fatta un’analisi dei dati di giacenza, tempi e cicli di lavoro delle cartucce; nella seconda fase si è proposta l’introduzione di un nuovo sistema di picking gestito con supermarket a kanban; nell’ultima fase si è valutata la convenienza dai punti di vista tecnico ed economico del progetto.
Resumo:
Il patrimonio edilizio italiano è costituito in gran parte da costruzioni che utilizzano la muratura come struttura portante. Le conoscenze acquisite negli ultimi anni nel campo dell’ingegneria hanno reso evidente come le costruzioni in muratura siano state concepite, nel corso dei secoli, senza quegli accorgimenti che l’evoluzione delle tecniche moderne di analisi ha dimostrato essere necessari. Progettare un intervento edilizio su un edificio esistente, correlato anche alla valutazione di rischio sismico, e cercare di migliorare le prestazioni dello stesso edificio, richiede partire sempre dalla conoscenza delle caratteristiche statiche intrinseche che il materiale della muratura possiede. La conoscenza della patologia comporta l'indubbio vantaggio di mettere al corrente di cosa ci si può attendere nel futuro dal punto di vista strutturale, come ad esempio che il fenomeno non sarà eliminabile all'origine e che la fessura o lesione magari si riformerà sempre, a meno d’interventi statici rilevanti e di costi ingenti. Diventa quindi di fondamentale importanza eseguire uno studio approfondito dei fenomeni strutturali anomali di deterioramento, quali lesioni, fessurazioni e simili, legati spesso a fattori ambientali, attraverso specifiche indagini diagnostiche e di monitoraggio dello stato interno delle strutture, per definire le cause responsabili e il metodo più adeguato alla tutela dei beni storici [Mastrodicasa, 1993]. Il monitoraggio dei possibili parametri che influenzano tali processi può essere continuo nel tempo o per mezzo di metodologia discontinua che prevede l’utilizzo e la ripetizione di prove non distruttive. L’elevato costo di un eventuale processo continuo ha limitato significativamente la sua applicazione, riducendo lo studio all’analisi di pochi parametri derivanti dalle prove diagnostiche e spesso non del tutto adatti alla completa analisi della struttura. Il seguente lavoro di tesi è sviluppato all’interno del progetto SmooHS (Smart Monitoring of Historic Structures) nell’ambito del 7° Programma Quadro della Commissione Europea che si pone come obiettivo lo sviluppo di strumenti di monitoraggio innovativi ‘intelligenti’ e poco invasivi e modelli di degrado e la loro sperimentazione sul campo per verificarne l’effettiva efficacia attraverso il confronto con risultati di prove non distruttive. La normativa correlata a questo studio, “Norme Tecniche per le Costruzioni’ (D.M. 14/01/2008), evidenzia come ‘La conoscenza della costruzione storica in muratura è un presupposto fondamentale sia ai fini di un’attendibile valutazione della sicurezza sismica attuale sia per la scelta di un efficace intervento di miglioramento…. Si ha pertanto la necessità di affinare tecniche di analisi e interpretazione dei manufatti storici mediante fasi conoscitive dal diverso grado di attendibilità, anche in relazione al loro impatto. La conoscenza può, infatti, essere conseguita con diversi livelli di approfondimento, in funzione dell’accuratezza delle operazioni di rilievo, delle ricerche storiche, e delle indagini sperimentali. Tali operazioni saranno funzione degli obiettivi preposti e andranno a interessare tutto o in parte l’edificio, secondo la tipologia dell’intervento previsto’. L’utilizzo di ‘Tecniche diagnostiche non distruttive di tipo indiretto, quali prove soniche e ultrasoniche’ è preferibile poiché molto promettenti e hanno il pregio di poter essere utilizzate in modo diffuso con un relativo impatto sulla costruzione e costi relativamente contenuti. La non identificazione di una procedura univoca di prove non distruttive per ciascuna tipologia edilizia rende necessario uno studio di fattibilità di diverse tecniche per valutarne l’effettiva efficacia in base al risultato atteso. L’obiettivo di questo lavoro di tesi è stato lo studio sperimentale di valutazione dell’efficacia di alcune tecniche soniche in trasmissione, tomografia e prove soniche dirette, nel monitoraggio di provini precedentemente realizzati ad hoc nei laboratori LISG (Laboratorio di Ingegneria Strutturale e Geotecnica) del DICAM dell’Università di Bologna caratterizzati da presenze di discontinuità (vacui o inclusioni di polistirolo) o materiali differenti in determinate posizioni di geometria e localizzazione nota e diverse tessiture murarie (muratura di laterizio tradizionale, muratura a sacco, inclusioni lapidee). Il capitolo 1 presenta una descrizione generale delle murature, le cause principali di deterioramento e conseguenti dissesti. Presenta inoltre una finestra sulle prove diagnostiche. Nel capitolo 2 sono riportati alcuni esempi di applicazioni di tomografia e prove soniche e sviluppi di ricerca su strutture storiche lignee e murarie eseguite recentemente. Nel capitolo 3 sono presentati i provini oggetto di studio, la loro geometria, i difetti, le sezioni. Il capitolo 4 descrive i principi fisici delle prove soniche e grandezze caratteristiche e presenta la procedura di acquisizione e relative strumentazioni. I capitoli 5 e 6 riguardano lo studio sperimentale vero e proprio ottenuto attraverso l’utilizzo di tomografia sonica e prove dirette, con descrizione delle stazioni di prova, visualizzazione dei dati in tabelle per una semplice interpretazione, loro elaborazione e susseguente analisi approfondita, con valutazione dei risultati ottenuti e debite conclusioni. Il capitolo 7 presenta un confronto delle analisi comuni a entrambe le tipologie di prove soniche, visualizzazioni di istogrammi di paragone e considerazioni deducibili.
Resumo:
During this internship, the α-alkylation of branched aldehydes was taken into consideration. An enantiopure Betti’s base derivative was used as catalyst, applying a new concept in catalysis: organocatalysis. The Betti’s base may be of particular interest for organic chemists working in the field of “reactions catalysed by enantiopure small organic molecules”, in particular for the ones interested in enantiopure primary amines. The potential of secondary amines as catalysts has certainly been known for years. It is indeed more innovative to conduct reactions using primary amine derivatives as catalyst. In this work, the efficacy of the primary amine was checked first. Then, the focus was set on finding optimal reaction conditions. Finally, to have a more complete picture of the structure of the compounds used in the project, experimental and computational IR spectra were compared, after the method was validated. Durante il periodo di tirocinio è stata presa in esame la reazione di α-alchilazione di aldeidi branched, utilizzando un derivato dell’ammina di Betti come catalizzatore enantiopuro ed applicando un nuovo tipo di catalisi: l’organocatalisi. Questi composti possono essere di particolare interesse per lavori in chimica organica, nel campo delle reazioni catalizzate da “piccole” molecole organiche, in particolare da ammine primarie a chiralità definita; la potenzialità delle ammine secondarie chirali come catalizzatori è certamente nota da anni, ma innovativo è condurre il tutto con l’impiego di un derivato amminico primario. Altri aspetti significativi sono gli apparenti e innumerevoli vantaggi, dal punto di vista economico ed ambientale, oltre che operativo e sintetico, derivanti dal nuovo tipo di catalisi. In un primo momento è stata verificata l’efficacia dell’ammina primaria sintetizzata nella reazione in progetto, quindi sono state individuate le condizioni di reazione ottimali. Infine, per un’analisi più completa di alcune molecole organiche e dopo un’opportuna validazione del metodo utilizzato, sono stati ottenuti a livello computazionale gli spettri IR delle molecole di sintesi prodotto e catalizzatore.
Resumo:
La tossicità delle polveri atmosferiche è associata sia alla natura granulometrica sia al carico di contaminanti, da qui la necessità di investigare oltre la concentrazione delle PM in atmosfera anche la loro composizione chimica. In questo studio è stata effettuata una prima caratterizzazione da un punto di vista sia granulometrico che chimico del particolato atmosferico campionato in una zona suburbana di Riccione (Castello degli Agolanti). In particolare sono state determinate le concentrazioni di metalli quali Pb, Cd, Ni, Zn, Cu, Fe e Al nel PM 2,5 PM 10 e PM totale. Inoltre, dato che uno degli scopi dello studio è quello di verificare il contributo della combustione di biomasse sul carico complessivo di contaminanti, il periodo di campionamento comprende il giorno delle Fogheracce, festa popolare in cui vengono accesi diversi falò all’aperto. Complessivamente sono stati prelevati 13 campioni di 48 ore per ogni frazione granulometrica dal 9 Marzo all’8 Aprile 2011. Dallo studio emerge che nel periodo di campionamento, mediamente il contributo antropogenico è dominante per Pb, Cd, Ni Cu e Zn dovuto principalmente al traffico veicolare. Tali metalli, ad eccezione del Cu infatti si concentrano nel particolato più fine. Al e Fe invece sono principalmente marker delle emissioni crostali e si concentrano nella frazione grossolana. Interessante quanto registrato nella giornata delle Fogheracce. Oltre ad una variazione nel contenuto relativo dei metalli con un forte arricchimento di Pb e Al, per quest’ultimo si nota anche un forte incremento della sua concentrazione nella frazione PM2.5 ad indicare una diversa sorgente emissiva. Si evidenzia in questo studio un importante contributo nel carico di inquinanti da parte di combustioni di biomasse all’aperto.
Resumo:
Nell’ultimo decenno si è assisitito ad una frenetica evoluzione delle tecnologie di connessione e trasferimento dati, dagli impianti di fibra ottica sempre più diffusi e performanti, alle varie tecnologie mobile UMTS e LTE. Tutto ciò ha permesso a sempre più persone di poter spendere una maggiore fetta del proprio tempo sulla rete sia per svago che per lavoro. Questo ha portato col tempo l’utente interattivo alla ricerca di servizi remoti che prima usufruiva in locale, sia per motivi di portabilità e di interconnessione, sia per una semplice questione di sincronizzazione fra i vari dispositivi posseduti. Il presente progetto di tesi si pone come obiettivo di indagare con occhio ingegneristico all’evoluzione della struttura del web fino ad identificare e analizzare l’attuale necessità di poter avere in rete tutti quei servizi anche completi e strutturalmente complessi che prima si aveva sul proprio desktop; tutto ciò attraverso l’esempio di un nuovo linguaggio di sviluppo per applicazioni web strutturate proposto da Google: DART. In questa analisi non si potrà prescindere dallo studio attento della tecnologia che sin dagli inizi della rete ha fatto da struttura al web ovvero l’Html e il suo ultimo standard Hmtl5. Nella prima parte verrà mostrata, attraverso un breve percorso, la nascita e lo sviluppo del web, sino ai giorni nostri. Si effettuerà quindi una panoramica, rivisitando tutti più importanti passi che hanno portato la rete internet ad essere ciò che oggi utilizziamo, ponendo una particolare attenzione alle attuali esigenze di progettazione della struttura dei servizi web. Nel secondo capitolo viene introdotta la tecnologia a base del web, l’Html; attraverso una breve analisi dell’evoluzione di quest’ultima si arriverà sino all’attuale HTML5 e alle funzionalità offerte nell’ottica della programmazione web strutturata. Nel terzo capitolo si analizzerà in maniera più approfondita la necessità di un web strutturato e le potenzialità del progetto Dart attraverso alcuni esempi esplicativi. Infine si trarranno alcune conclusioni sull’attuale situazione del web, sulla necessità di un web strutturato e sulla possibilità di riuscita del progetto Dart.