881 resultados para Estrazione informazioni, analisi dati non strutturati, Web semantico, data mining, text mining, big data, open data, classificazione di testi.


Relevância:

100.00% 100.00%

Publicador:

Resumo:

On 2 July 2009, the EFSA Panel on Dietetic products, Nutrition and Allergies (NDA) endorsed a draft Opinion on Dietary Reference Values for fats to be released for public consultation. This Scientific Report summarises the comments received through the public consultation and outlines how these were taken into account in the final opinion. EFSA had received contributions from 40 interested parties (individuals, non-governmental organisations, industry organisations, academia and national assessment bodies). The main comments which were received during the public consultation related to: the availability of more recent data, the nomenclature used, the use of a non-European food composition data base, the impact of genetic factors in modulating the absorption, metabolism and health effects of different fatty acids, the definition of “nutritionally adequate diet”, the use of Dietary Reference Values in the labelling of foods, the translation of advice into food-based dietary guidelines, nutrient goals and recommendations, certain risk management issues, and to Dietary Reference Values of fats, individual fatty acids, and cholesterol. All the public comments received that related to the remit of EFSA were assessed and the Opinion on Dietary Reference Values for fats has been revised taking relevant comments into consideration.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Research in ubiquitous and pervasive technologies have made it possible to recognise activities of daily living through non-intrusive sensors. The data captured from these sensors are required to be classified using various machine learning or knowledge driven techniques to infer and recognise activities. The process of discovering the activities and activity-object patterns from the sensors tagged to objects as they are used is critical to recognising the activities. In this paper, we propose a topic model process of discovering activities and activity-object patterns from the interactions of low level state-change sensors. We also develop a recognition and segmentation algorithm to recognise activities and recognise activity boundaries. Experimental results we present validates our framework and shows it is comparable to existing approaches.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The use of human brain electroencephalography (EEG) signals for automatic person identi cation has been investigated for a decade. It has been found that the performance of an EEG-based person identication system highly depends on what feature to be extracted from multi-channel EEG signals. Linear methods such as Power Spectral Density and Autoregressive Model have been used to extract EEG features. However these methods assumed that EEG signals are stationary. In fact, EEG signals are complex, non-linear, non-stationary, and random in nature. In addition, other factors such as brain condition or human characteristics may have impacts on the performance, however these factors have not been investigated and evaluated in previous studies. It has been found in the literature that entropy is used to measure the randomness of non-linear time series data. Entropy is also used to measure the level of chaos of braincomputer interface systems. Therefore, this thesis proposes to study the role of entropy in non-linear analysis of EEG signals to discover new features for EEG-based person identi- cation. Five dierent entropy methods including Shannon Entropy, Approximate Entropy, Sample Entropy, Spectral Entropy, and Conditional Entropy have been proposed to extract entropy features that are used to evaluate the performance of EEG-based person identication systems and the impacts of epilepsy, alcohol, age and gender characteristics on these systems. Experiments were performed on the Australian EEG and Alcoholism datasets. Experimental results have shown that, in most cases, the proposed entropy features yield very fast person identication, yet with compatible accuracy because the feature dimension is low. In real life security operation, timely response is critical. The experimental results have also shown that epilepsy, alcohol, age and gender characteristics have impacts on the EEG-based person identication systems.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Un film edibile è un sottile strato di materiale commestibile, preformato o formato direttamente sull'alimento, usato come rivestimento o inserito tra i diversi componenti dell'alimento stesso. Per le sue peculiari caratteristiche un film edibile è preparato con materiali commestibili e rappresenta una protezione per l'alimento dall'ambiente esterno. É dunque parte integrante dell'alimento, prolungandone la "shelf-life", ovvero il periodo di utilizzo in commercio del prodotto, dunque il tempo utile tra la data di confezionamento e di scadenza. Una maggiore "shelf-life" comporta molteplici vantaggi per tutti i settori coinvolti nella filiera alimentare: chi produce infatti può offrire ai distributori un prodotto con maggiori garanzie di qualità e conservazione, che distribuisce può allungare il periodo di esposizione negli scaffali e di stoccaggio nei magazzini, chi consuma ottiene un prodotto più sicuro e che può essere conservato più a lungo. I film edibili inoltre sono dotati di proprietà peculiari, infatti conferiscono protezione agli alimenti, costituendo un'interfaccia tra prodotto e ambiente e rallentando il decadimento qualitativo; hanno una natura ecologica perchè non incidono sull'inquinamento ambientale essendo commestibili; sono funzionali, poichè oltre al ruolo di imballaggio, possono assumere funzione antimicrobica e funzionale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Secure transmission of bulk data is of interest to many content providers. A commercially-viable distribution of content requires technology to prevent unauthorised access. Encryption tools are powerful, but have a performance cost. Without encryption, intercepted data may be illicitly duplicated and re-sold, or its commercial value diminished because its secrecy is lost. Two technical solutions make it possible to perform bulk transmissions while retaining security without too high a performance overhead. These are: 1. a) hierarchical encryption - the stronger the encryption, the harder it is to break but also the more computationally expensive it is. A hierarchical approach to key exchange means that simple and relatively weak encryption and keys are used to encrypt small chunks of data, for example 10 seconds of video. Each chunk has its own key. New keys for this bottom-level encryption are exchanged using a slightly stronger encryption, for example a whole-video key could govern the exchange of the 10-second chunk keys. At a higher level again, there could be daily or weekly keys, securing the exchange of whole-video keys, and at a yet higher level, a subscriber key could govern the exchange of weekly keys. At higher levels, the encryption becomes stronger but is used less frequently, so that the overall computational cost is minimal. The main observation is that the value of each encrypted item determines the strength of the key used to secure it. 2. b) non-symbolic fragmentation with signal diversity - communications are usually assumed to be sent over a single communications medium, and the data to have been encrypted and/or partitioned in whole-symbol packets. Network and path diversity break up a file or data stream into fragments which are then sent over many different channels, either in the same network or different networks. For example, a message could be transmitted partly over the phone network and partly via satellite. While TCP/IP does a similar thing in sending different packets over different paths, this is done for load-balancing purposes and is invisible to the end application. Network and path diversity deliberately introduce the same principle as a secure communications mechanism - an eavesdropper would need to intercept not just one transmission path but all paths used. Non-symbolic fragmentation of data is also introduced to further confuse any intercepted stream of data. This involves breaking up data into bit strings which are subsequently disordered prior to transmission. Even if all transmissions were intercepted, the cryptanalyst still needs to determine fragment boundaries and correctly order them. These two solutions depart from the usual idea of data encryption. Hierarchical encryption is an extension of the combined encryption of systems such as PGP but with the distinction that the strength of encryption at each level is determined by the "value" of the data being transmitted. Non- symbolic fragmentation suppresses or destroys bit patterns in the transmitted data in what is essentially a bit-level transposition cipher but with unpredictable irregularly-sized fragments. Both technologies have applications outside the commercial and can be used in conjunction with other forms of encryption, being functionally orthogonal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The 42th meeting of the ICES Working Group on Introductions and Transfers of Marine Organisms (WGITMO) was held in Olbia, Italy, 16–18 March 2016, with Anna Occhipinti-Ambrogi as host and Henn Ojaveer as chairperson. Representatives from 19 countries participated in the meeting. Attendants were from Belgium, Canada, Dennark, Estonia, Finland, France, Germany, Ireland, Israel, Italy, Lithuania, Norway, Poland, Portugal, Russia, Spain, Sweden, United Kingdom and United States. Sweden contributed by cor-respondence. The objectives of the meeting were to update information and discuss several aspects related to the introductions and transfers of non-indigenous aquatic species. Data and information management were two of the discussion topics of the meeting, with special focus on the better exploitation of the ‘Information system on aquatic non-indigenous and cryptogenic species’ (AquaNIS). The WGITMO also dedicated time for addressing the MSFD D2 issues: indicator on new non-indigenous species introduced by human activities, and opportunities and problems related to cross-regional comparison of non-indigenous species indicators. Preparation of the manuscript of the alert report on sea squirt Didemnum vexillum, which is to be published in ICES CRR series, was discussed and the steps to be taken to finalise the report were agreed. As usual, adequate time was devoted to discuss national reports, to exchange of information on the management of NIS and to review ongoing and planned research activities. The approach taken during the meeting facilitated presentations and discussions on the issues of relevance related to the Terms of References as well as on a few generic and strategically-important issues of general relevance to bioinvasions. The meeting began with a full-day joint meeting with the Working Group on Ballast and Other Ship Vectors (WGBOSV), which provided an opportunity to discuss and address issues of common interest, such as shipping and biofouling as introduction vectors. The proposed ICES demonstration advice on ‘Risk management of non-indigenous species associated with shipping in the Arctic’ was discussed, and edits were suggested for both the orientation of the demonstration advice as well as for the exact questions to be asked. Both working groups agreed that the practice of conducting back-to-back meetings with one joint day is useful and will continue in 2017. All Terms of References to be addressed for 2016 were discussed. For some Terms of Ref-erence, more detailed presentations were given, and a short overview of the information and subsequent discussion is provided herein at the end of each section. This report is structured so that each Term of Reference is dealt with in sequential order. The main body of the report contains summaries of the presentations and discussions with the more detailed documents being contained in the Annexes. WGITMO progressed each of the Terms of Reference by either completing the task or clearly identifying and agreeing on the inter-sessional activities required to still finalise the work in 2016. From 2017, WGITMO will be shifted to multi-annual management.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This thesis focuses on biological activity of pyrrole-imidazole polyamides in vivo. The work presented includes experiments underlining sequence selectivity of these compounds in living cells and potential methods to improve it. A large fraction of this thesis is devoted to activity of Py-Im in murine models of cancer. We investigated the pharmacokinetics and biodistribution of two compounds – targeted to 5'-WGGWCW-3' and 5'-WTWCGW-3' sequences – and characterized their activity by measuring their effects on tumor growth, gene expression in vivo and in tissue culture, and their effects on physiology of tumors. The initial theoretical studies suggested that a large fraction of genomic sites are bound by Py-Im polyamides non-specifically and experimental data shows that the programmed binding sequence is not a sole determinant of the patterns of gene regulation. Despite the likely presence of non-specific effects of Py-Im polyamides in living cells, in vivo administration of Py-Im polyamides resulted in tolerable host toxicity and anti-tumor activity. Py-Im polyamide targeted to Estrogen Receptor Response Element showed downregulation of ER-driven gene expression in tumor cells, while the compound targeted to hypoxia response element reduced vascularization of tumors and their growth rate, induced apoptosis of cells in hypoxic areas and reduced expression of proangiogenic and prometastatic factors. Further studies, showed that polyamides distributed to many of the tested tissues and their FITC-conjugates showed nuclear uptake. The gene expression effects were also present in murine tissues, such as liver and kidneys, indicating a potential for use for Py-Im polyamides in non-cancerous diseases.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro nasce dal desiderio di approfondire i fondamenti del linguaggio della matematica, osservandone gli usi ed analizzandone gli scopi dal punto di vista didattico e non solo. Il linguaggio è il mezzo su cui si costruiscono i pensieri o semplicemente lo strumento coi quali si comunica il sapere? Il linguaggio è uno strumento della pratica matematica o è la matematica ad essere un linguaggio? Se lo è, che caratteristiche ha? Queste sono le domande che hanno accompagnato la stesura dei primi capitoli di questa tesi, in cui si approfondisce il tema del linguaggio della matematica da un punto di vista epistemologico, tecnico e didattico, a partire dai riferimenti teorici e dalle ricerche sul campo curate da Bruno D’Amore e Pier Luigi Ferrari. Nella seconda parte si presentano i risultati e le osservazioni della sperimentazione condotta nella classe 5a As del Liceo Scientifico “A. Righi” di Cesena. L’indagine di tipo qualitativo sui protocolli degli studenti ha permesso di definire le modalità d’uso del linguaggio da parte degli stessi al termine del percorso scolastico, di mostrare alcuni possibili legami tra le competenze linguistiche e quelle matematiche e di delineare una classificazione di tre profili di allievi relativamente al loro modo di scrivere e parlare di matematica. La tesi ha favorito uno sguardo trasversale verso la matematica in cui il linguaggio offre una fruttuosa possibilità di incontro tra prospettive opposte nel guardare la scienza e l’uomo. Questo apre alla possibilità di costruire una didattica che non sia la mera somma di conoscenze o la divisione di settori disciplinari, ma il prodotto di elementi che armoniosamente costruiscono il pensiero dell’uomo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'obiettivo di questo lavoro di tesi è realizzare un modello, prima statico poi dinamico, dei componenti: imbocco e gruppo compressore, del turboalbero Allison 250 C18 sottoposto alla tecnologia del fogging. I dati sperimentali utilizzati provengono da prove sperimentali svolte da un altro tesista nel laboratorio di Propulsione e macchine della Scuola di Ingegneria e Architettura di Forlì. Grazie al modello statico, realizzato con il software MATLAB®, sono state create le principali mappe prestazionali dei singoli componenti. Queste ultime sono state poi implementate all'interno del modello dinamico realizzato con il software Simulink. Attraverso il modello dinamico, siamo stati in grado di osservare, grazie ad una struttura modulare a blocchi, l'andamento delle grandezze anche in regime transitorio, e di cambiare i parametri di inizializzazione in maniera molto rapida. Infine i dati ottenuti sono stati confrontati con i dati sperimentali e sono state effettuate valutazioni sull'utilità o meno del fogging. Entrambe le conclusioni hanno dato buoni risultati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Data la sempre maggiore richiesta di fabbisogno energetico, si è sviluppata una nuova filosofia nella gestione dei consumi energetici, il DSM (demand side management), che ha lo scopo di incoraggiare il consumatore ad usare energia in modo più intelligente e coscienzioso. Questo obiettivo, unito all’accumulo di energia da fonti rinnovabili, permetterà un abbassamento dell’utilizzo dell’energia elettrica proveniente dal consumo di fonti non rinnovabili e altamente inquinanti come quelle a combustibili fossili ed una diminuzione sia del consumo energetico, sia del costo per produrre energia che dell’energia stessa. L’home automation e la domotica in ambiente domestico rappresentano un esempio di DSM. L’obiettivo di questa tesi è quello di creare un sistema di home automation utilizzando tecnologie opensource. Sono stati utilizzati device come board Arduino UNO, Raspberry Pi ed un PC con sistema operativo GNU/Linux per creare una simulazione di un sistema di home automation abbinato alla gestione di celle fotovoltaiche ed energy storaging. Il sistema permette di poter spegnere un carico energetico in base a delle particolari circostanze come, per esempio, il superamento di una certa soglia di consumo di energia elettrica. Il software utilizzato è opensource e mira a poter ottimizzare il consumo energetico secondo le proprie finalità. Il tutto a dimostrare che si può creare un sistema di home automation da abbinare con il presente e futuro delle fonti rinnovabili utilizzando tecnologie libere in modo tale da preservare privacy e security oltre che customizzazione e possibilità di adattamento a diverse circostanze. Nella progettazione del sistema è stato implementato un algoritmo per gestire varie situazioni all’interno di un ambiente domestico. La realizzazione di tale algoritmo ha prodotto ottimi risultati nella raggiungimento degli obiettivi prefissati. Il progetto di questa tesi può essere ulteriormente ampliato ed il codice è reperibile in un repository pubblico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Increased activity of the noradrenergic system in the amygdala has been suggested to contribute to the hyperarousal symptoms associated with post-traumatic stress disorder (PTSD). However, only two studies have examined the content of noradrenaline or its metabolites in the amygdala of rats previously exposed to traumatic stress showing inconsistent results. The aim of this study was to investigate the effects of an inescapable foot shock (IFS) procedure 1) on reactivity to novelty in an open-field (as an index of hyperarousal), and 2) on noradrenaline release in the amygdala during an acute stress. To test the role of noradrenaline in amygdala, we also investigated the effects of microinjections of propranolol, a β-adrenoreceptor antagonist, and clenbuterol, a β-adrenoreceptor agonist, into the amygdala of IFS and control animals. Finally, we evaluated the expression of mRNA levels of β-adrenoreceptors (β1 and β2) in the amygdala, the hippocampus and the prefrontal cortex. Male Wistar rats (3 months) were stereotaxically implanted with bilateral guide cannulae. After recovering from surgery, animals were exposed to IFS (10 shocks, 0.86 mA, and 6 seconds per shock) and seven days later either microdialysis or microinjections were performed in amygdala. Animals exposed to IFS showed a reduced locomotion compared to non-shocked animals during the first 5 minutes in the open-field. In the amygdala, IFS animals showed an enhanced increase of noradrenaline induced by stress compared to control animals. Bilateral microinjections of propranolol (0.5 μg) into the amygdala one hour before testing in the open-field normalized the decreased locomotion observed in IFS animals. On the other hand, bilateral microinjections of clenbuterol (30 ng) into the amygdala of control animals did not change the exploratory activity induced by novelty in the open field. IFS modified the mRNA expression of β1 and β2 adrenoreceptors in the prefrontal cortex and the hippocampus. These results suggest that an increased noradrenergic activity in the amygdala contributes to the expression of hyperarousal in an animal model of PTSD.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L'elaborato presenta Google Fusion Tables, un software che fa parte dei servizi messi a disposizione da Google, funzionale per la gestione di database. Il servizio gratuito e online ha quindi lo scopo di supportare i compiti di gestori di basi di dati e fornisce operazioni di manipolazione dei dati come estrazione, aggregazione, filtraggio e fusione. Il servizio utilizza dati strutturati, i quali sono estratti dalle pagine Web con appositi motori di ricerca come WebTables, trattato nell'elaborato. Google Fusion Tables è impiegato in ambito scientifico ed è nato per esplicitare le informazioni di ricerche scientifiche che spesso sono contenute in database e fogli di calcolo difficilmente condivisi nel Web. Questo servizio è molto pratico per le aziende, le quali possono integrare dati interni ed esterni all’organizzazione per ampliare la propria conoscenza e ottenere un vantaggio competitivo sui concorrenti. Vengono quindi presentate le caratteristiche distintive che potrebbero indurre numerose organizzazioni a scommettere su questo nuovo servizio.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Abstract L’utilizzo dei dati satellitari per la gestione dei disastri naturali è fondamentale nei paesi in via di sviluppo, dove raramente esiste un censimento ed è difficile per i governi aggiornare le proprie banche dati con le tecniche di rilevamento e metodi di mappatura tradizionali che sono entrambe lunghe e onerose. A supporto dell’importanza dell’impiego del telerilevamento e per favorirne l’uso nel caso di catastrofi, vi è l’operato di diverse organizzazioni internazionali promosse da enti di ricerca, da agenzie governative o da organismi sopranazionali, le quali svolgono un lavoro di cruciale valore, fornendo sostegno tecnico a chi si occupa di far giungere alle popolazioni colpite gli aiuti umanitari e i soccorsi nel più breve tempo possibile. L’attività di tesi è nata proprio dalla collaborazione con una di esse, ITHACA (Information Technology for Humanitarian Assistance, Cooperation and Action), organizzazione no-profit, fondata dal Politecnico di Torino e SiTI (Istituto Superiore sui Sistemi Territoriali per l’Innovazione), la quale a sua volta collabora con il WFP (World Food Programme) delle Nazioni Unite, realizzando cartografie speditive necessarie per la valutazione delle conseguenze di un evento catastrofico, attraverso l’impiego di dati acquisiti da satellite. Su questo tema si è inserito il presente lavoro che ha come obiettivo quello di dimostrare la valenza dei dati telerilevati, siano essi di tipo ottico o Radar, nel caso di alcuni dei disastri naturali più catastrofici, le alluvioni. In particolare è stata studiata la vulnerabilità del Bangladesh, il quale annualmente si trova ad affrontare eventi alluvionali, spesso di grave intensità. Preliminarmente allo studio, è stata condotta una ricerca bibliografica al fine di avere una buona conoscenza dell’area sia in termini geografici e fisici che di sviluppo e tipologia di urbanizzazione. E’stata indagata in particolare l’alluvione che ha colpito il paese nel Luglio del 2004, attraverso delle immagini satellitari multispettrali, in particolare Landsat 7, per un inquadramento pre-evento, ed ASTER per studiare la situazione a distanza di tre mesi dall’accaduto (immagine rilevata il 20 Ottobre 2004). Su tali immagini sono state condotte delle classificazioni supervisionate con il metodo della massima verosimiglianza che hanno portato la suddivisione del territorio in quattro classi di destinazione d’uso del suolo: urbano (Build-up), campi e vegetazione (Crops&Vegetation), sabbia e scavi (Sand&Excavation), idrografia e zone alluvionate (Water). Dalla sperimentazione è emerso come tali immagini multispettrali si prestino molto bene per l’analisi delle differenti caratteristiche del territorio, difatti la validazione condotta sulla mappa tematica derivata dall’immagine Landsat 7 ha portato ad un’accuratezza del 93% circa, mentre la validazione dell’immagine ASTER è stata solo di tipo qualitativo, in quanto, considerata l’entità della situazione rilevata, non è stato possibile avere un confronto con dei punti da assumere come verità a terra. Un’interpretazione della mappa tematica derivante dalla classificazione dell’immagine ASTER è stata elaborata incrociandola in ambiente GIS con dati forniti dal CEGIS (Center for Environmental and Geographic Information Services) riguardanti il landuse della zona in esame; da ciò è emerso che le zone destinate alla coltivazione del riso sono più vulnerabili alle inondazioni ed in particolare nell’Ottobre 2004 il 95% delle aree esondate ha interessato tali colture. Le immagini ottiche presentano un grosso limite nel caso delle alluvioni: la rilevante copertura nuvolosa che spesso accompagna siffatti eventi impedisce ai sensori satellitari operanti nel campo dell’ottico di rilevare il territorio, e per questo di frequente essi non si prestano ad essere impiegati per un’indagine nella fase di prima emergenza. In questa circostanza, un valido aiuto giunge dall’impiego di immagini Radar, le quali permettono osservazioni ad ogni ora del giorno e della notte, anche in presenza di nuvole, rendendole di fondamentale importanza nelle situazioni descritte. Per dimostrare la valididi questi sensori si sono analizzati due subset derivanti da un mosaico di immagini della nuova costellazione italiana ad alta risoluzione CosmoSkymed: il primo va dalla città di Dhaka al Golfo del Bengala ed il secondo copre la zona più a Nord nel distretto di Sylhet. Dalla sperimentazione condotta su tali immagini radar, che ha comportato come ovvio problematiche del tutto differenti rispetto alle elaborazioni tradizionalmente condotte su immagini nel campo dell’ottico, si è potuto verificare come l’estrazione dei corpi d’acqua e più in generale dell’idrografia risulti valida e di veloce computazione. Sono emersi tuttavia dei problemi, per esempio per quanto riguarda la classificazione dell’acqua in presenza di rilievi montuosi; tali complicazioni sono dovute alla presenza di zone d’ombra che risultano erroneamente assegnate alla classe water, ma è stato possibile correggere tali errori di attribuzione mascherando i rilievi con l’ausilio di una mappa delle pendenze ricavata da modelli di elevazione SRTM (Shuttle Radar Topographic Mission). La validazione dei risultati della classificazione, condotta con un grande numero di check points, ha fornito risultati molto incoraggianti (ca. 90%). Nonostante le problematiche riscontrate, il Radar, in sé o in accoppiamento con altri dati di diversa origine, si presta dunque a fornire in breve tempo informazioni sull’estensione dell’esondazione, sul grado di devastazione, sulle caratteristiche delle aree esondate, sulle vie di fuga più adatte, diventando un’importante risorsa per chi si occupa di gestire l’emergenza in caso di eventi calamitosi. L’integrazione con i dati di tipo ottico è inoltre essenziale per pervenire ad una migliore caratterizzazione del fenomeno, sia in termini di change detection che di monitoraggio post-evento.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Questa tesi è il risultato dell’attività di sviluppo di una applicazione Web per l’analisi e la presentazione di dati relativi al mercato immobiliare italiano, svolta presso l’azienda responsabile del portale immobiliare all’indirizzo www.affitto.it. L'azienda commissiona lo sviluppo di un sistema software che generi uno storico e descriva l'andamento del mercato immobiliare nazionale. In questa tesi verrà presentato il processo di sviluppo software che ha portato alla realizzazione del prodotto, che è costituito da un applicativo Web-based implementato col supporto di tecnologie quali PHP,HTML,MySQL,CSS.