847 resultados para Data Mining, Big Data, Consumi energetici, Weka Data Cleaning
La passivhaus in clima mediterraneo: caratteristiche costruttive e simulazioni energetiche dinamiche
Resumo:
Questa Tesi approfondisce lo standard Passivhaus, un metodo sviluppato originariamente in Germania nella seconda metà degli anni ’80 ed ora diffuso in tutta Europa, con l’obiettivo di favorire la realizzazione di edifici in grado di fornire ottimi livelli di comfort con consumi energetici pari quasi a zero. Questo standard abitativo mi ha appassionato a tal punto che ho deciso di farne oggetto della mia tesi di laurea. Da diversi anni stiamo assistendo ad una serie di mutamenti climatici che stanno modificando la vita sul nostro pianeta e portano a considerare tutta una serie di cambiamento sul nostro modo di vivere. La casa passiva, a mio parere, è un concetto valido e utile a contenere questa situazione. In altre zone d’Europa, con climi invernali rigidi ma condizioni estive meno gravose delle nostre, è uno standard piuttosto diffuso e qui cercherò di formulare un’analisi quanto più vicina alla realtà riguardo all’adattabilità della Passivhaus al nostro clima. Lo scopo è quello di capire come si comporta questo tipo di edifici in ambienti climatici diversi da quelli per cui lo standard è stato progettato. Per verificarne l’efficacia, verrà studiato nel dettaglio il primo edificio residenziale multipiano recentemente costruito a Cesena e certificato Passivhaus. Successivamente, sarà simulata la realizzazione dello stesso edificio in dieci diverse località italiane, con differenti condizioni climatiche, e ne saranno verificate le prestazioni energetiche tramite un software di modellazione in regime dinamico. Se risulterà necessario a seguito delle verifiche, saranno progettate le modifiche alle soluzioni costruttive che permettano di raggiungere i livelli previsti dallo standard Passivhaus in tutte le località. I risultati della simulazione saranno infine confrontati e commentati nella parte conclusiva della Tesi.
Resumo:
L'elaborato è stato redatto durante il percorso di tirocinio svolto in azienda nel 2021. Esso consiste in un analisi energetica dello stabilimento Bonfiglioli S.p.a. di Forlì e nel piano di intervento realizzato sotto la guida del reparto Maintenance & Facilities. Dopo la raccolta dati dei consumi energetici, sia elettrici che termici, si è seguita la volontà aziendale di percorrere investimenti che rientrassero nel breve-medio periodo. Analizzando quindi i grafici ottenuti, si è valutata la possibilità di intervenire sulla produzione di aria compressa, in particolare sulla rete di distribuzione. Dopo aver riscontrato problemi di dimensionamento ed averne preventivato la sostituzione, si è passata alla ricerca di perdite lungo i vari punti della rete. Tramite un analisi fonometrica è stato possibile effettuarne la catalogazione e valutare l'intervento necessario; si è quindi costruito un file Excel che ha permesso di studiare la distribuzione delle perdite, i componenti più sensibili ed i costi ad esse associate. In conclusione si è analizzato, tramite la continua raccolta dati, l'effettivo andamento dell'investimento e si sono valutate le correlazioni con le variabili che più influenzano il consumo elettrico per la produzione di aria compressa, permettendo di comprendere la differenza fra il rientro teorico calcolato e quello effettivo. Il modello costruito permetterà inoltre di ottimizzare le scelte riguardanti i piani di manutenzione ed interventi futuri, dimostrando la necessità di un regolare controllo delle perdite sulla rete di distribuzione dell'aria compressa.
Resumo:
Negli ultimi anni vi è stato un aumento della sensibilità in merito alle tematiche ambientali e questo ha riguardato anche il settore della mobilità, spingendo sempre più verso l’elettrificazione dei trasporti. Una delle possibilità per elettrificare i trasporti sono le reti filoviarie. Di quelle già esistenti, però, la maggior parte è stata realizzata nel secolo scorso. Inoltre, non vengono effettuate misure per valutare quale sia lo stato del carico sulla rete. In questa tesi si è valutata la fattibilità di realizzazione di un sensore non intrusivo per la misura delle correnti sulle filovie di reti esistenti, al fine di poter ottenere i dati relativi ai flussi di potenza e permettere quindi, in futuro, una migliore gestione della rete. Per effettuare la misura di corrente in modo non invasivo si è pensato di utilizzare un sensore di campo magnetico stazionario. Per valutare l’intensità del campo magnetico, al fine di scegliere il sensore che si confacesse alle caratteristiche dell’applicazione, si è proceduto a sviluppare diversi modelli per rappresentare i conduttori della filovia. Da queste simulazioni è stato inoltre possibile valutare quale fosse la posizione più idonea al collocamento del sensore. Per l’alimentazione del sensore, si sono valutate più possibilità che permettessero di non ricorrere ad un cablaggio ausiliario, tra cui l’utilizzo di un pannello fotovoltaico eventualmente accoppiato ad una batteria. Per la trasmissione dei dati, sono stati valutati più protocolli e dispositivi di comunicazione per trovare quello che meglio combinasse le necessità di trasmissione su distanze medio-lunghe e la necessità di minimizzare i consumi energetici. Infine, sono state effettuate prove sperimentali per validare l'affidabilità delle misure, ovvero verificare che fosse realmente possibile stimare il valore delle correnti nei conduttori della filovia partendo da una misura di campo magnetico, e se i consumi energetici stimati fossero in linea con quelli reali.
Resumo:
Dissertação de mestrado integrado em Engenharia e Gestão de Sistemas de Informação
Resumo:
En esta memoria se presenta el diseño y desarrollo de una aplicación en la nube destinada a la compartición de objetos y servicios. El desarrollo de esta aplicación surge dentro del proyecto de I+D+i, SITAC: Social Internet of Things – Apps by and for the Crowd ITEA 2 11020, que trata de crear una arquitectura integradora y un “ecosistema” que incluya plataformas, herramientas y metodologías para facilitar la conexión y cooperación de entidades de distinto tipo conectadas a la red bien sean sistemas, máquinas, dispositivos o personas con dispositivos móviles personales como tabletas o teléfonos móviles. El proyecto innovará mediante la utilización de un modelo inspirado en las redes sociales para facilitar y unificar las interacciones tanto entre personas como entre personas y dispositivos. En este contexto surge la necesidad de desarrollar una aplicación destinada a la compartición de recursos en la nube que pueden ser tanto lógicos como físicos, y que esté orientada al big data. Ésta será la aplicación presentada en este trabajo, el “Resource Sharing Center”, que ofrece un servicio web para el intercambio y compartición de contenido, y un motor de recomendaciones basado en las preferencias de los usuarios. Con este objetivo, se han usado tecnologías de despliegue en la nube, como Elastic Beanstalk (el PaaS de Amazon Web Services), S3 (el sistema de almacenamiento de Amazon Web Services), SimpleDB (base de datos NoSQL) y HTML5 con JavaScript y Twitter Bootstrap para el desarrollo del front-end, siendo Python y Node.js las tecnologías usadas en el back end, y habiendo contribuido a la mejora de herramientas de clustering sobre big data. Por último, y de cara a realizar el estudio sobre las pruebas de carga de la aplicación se ha usado la herramienta ApacheJMeter.
Resumo:
Big data comes in various ways, types, shapes, forms and sizes. Indeed, almost all areas of science, technology, medicine, public health, economics, business, linguistics and social science are bombarded by ever increasing flows of data begging to be analyzed efficiently and effectively. In this paper, we propose a rough idea of a possible taxonomy of big data, along with some of the most commonly used tools for handling each particular category of bigness. The dimensionality p of the input space and the sample size n are usually the main ingredients in the characterization of data bigness. The specific statistical machine learning technique used to handle a particular big data set will depend on which category it falls in within the bigness taxonomy. Large p small n data sets for instance require a different set of tools from the large n small p variety. Among other tools, we discuss Preprocessing, Standardization, Imputation, Projection, Regularization, Penalization, Compression, Reduction, Selection, Kernelization, Hybridization, Parallelization, Aggregation, Randomization, Replication, Sequentialization. Indeed, it is important to emphasize right away that the so-called no free lunch theorem applies here, in the sense that there is no universally superior method that outperforms all other methods on all categories of bigness. It is also important to stress the fact that simplicity in the sense of Ockham’s razor non-plurality principle of parsimony tends to reign supreme when it comes to massive data. We conclude with a comparison of the predictive performance of some of the most commonly used methods on a few data sets.
Resumo:
A Internet das Coisas tal como o Big Data e a análise dos dados são dos temas mais discutidos ao querermos observar ou prever as tendências do mercado para as próximas décadas, como o volume económico, financeiro e social, pelo que será relevante perceber a importância destes temas na atualidade. Nesta dissertação será descrita a origem da Internet das Coisas, a sua definição (por vezes confundida com o termo Machine to Machine, redes interligadas de máquinas controladas e monitorizadas remotamente e que possibilitam a troca de dados (Bahga e Madisetti 2014)), o seu ecossistema que envolve a tecnologia, software, dispositivos, aplicações, a infra-estrutura envolvente, e ainda os aspetos relacionados com a segurança, privacidade e modelos de negócios da Internet das Coisas. Pretende-se igualmente explicar cada um dos “Vs” associados ao Big Data: Velocidade, Volume, Variedade e Veracidade, a importância da Business Inteligence e do Data Mining, destacando-se algumas técnicas utilizadas de modo a transformar o volume dos dados em conhecimento para as empresas. Um dos objetivos deste trabalho é a análise das áreas de IoT, modelos de negócio e as implicações do Big Data e da análise de dados como elementos chave para a dinamização do negócio de uma empresa nesta área. O mercado da Internet of Things tem vindo a ganhar dimensão, fruto da Internet e da tecnologia. Devido à importância destes dois recursos e á falta de estudos em Portugal neste campo, com esta dissertação, sustentada na metodologia do “Estudo do Caso”, pretende-se dar a conhecer a experiência portuguesa no mercado da Internet das Coisas. Visa-se assim perceber quais os mecanismos utilizados para trabalhar os dados, a metodologia, sua importância, que consequências trazem para o modelo de negócio e quais as decisões tomadas com base nesses mesmos dados. Este estudo tem ainda como objetivo incentivar empresas portuguesas que estejam neste mercado ou que nele pretendam aceder, a adoptarem estratégias, mecanismos e ferramentas concretas no que diz respeito ao Big Data e análise dos dados.
Resumo:
Dissertação de mestrado integrado em Engenharia e Gestão de Sistemas de Informação
Resumo:
Locomotor problems prevent the bird to move freely, jeopardizing the welfare and productivity, besides generating injuries on the legs of chickens. The objective of this study was to evaluate the influence of age, use of vitamin D, the asymmetry of limbs and gait score, the degree of leg injuries in broilers, using data mining. The analysis was performed on a data set obtained from a field experiment in which it was used two groups of birds with 30 birds each, a control group and one treated with vitamin D. It was evaluated the gait score, the asymmetry between the right and left toes, and the degree of leg injuries. The Weka ® software was used in data mining. In particular, C4.5 algorithm (also known as J48 in Weka environment) was used for the generation of a decision tree. The results showed that age is the factor that most influences the degree of leg injuries and that the data from assessments of gait score were not reliable to estimate leg weakness in broilers.
Resumo:
The aim of this study was to group temporal profiles of 10-day composites NDVI product by similarity, which was obtained by the SPOT Vegetation sensor, for municipalities with high soybean production in the state of Paraná, Brazil, in the 2005/2006 cropping season. Data mining is a valuable tool that allows extracting knowledge from a database, identifying valid, new, potentially useful and understandable patterns. Therefore, it was used the methods for clusters generation by means of the algorithms K-Means, MAXVER and DBSCAN, implemented in the WEKA software package. Clusters were created based on the average temporal profiles of NDVI of the 277 municipalities with high soybean production in the state and the best results were found with the K-Means algorithm, grouping the municipalities into six clusters, considering the period from the beginning of October until the end of March, which is equivalent to the crop vegetative cycle. Half of the generated clusters presented spectro-temporal pattern, a characteristic of soybeans and were mostly under the soybean belt in the state of Paraná, which shows good results that were obtained with the proposed methodology as for identification of homogeneous areas. These results will be useful for the creation of regional soybean "masks" to estimate the planted area for this crop.
Resumo:
This study aimed to identify differences in swine vocalization pattern according to animal gender and different stress conditions. A total of 150 barrow males and 150 females (Dalland® genetic strain), aged 100 days, were used in the experiment. Pigs were exposed to different stressful situations: thirst (no access to water), hunger (no access to food), and thermal stress (THI exceeding 74). For the control treatment, animals were kept under a comfort situation (animals with full access to food and water, with environmental THI lower than 70). Acoustic signals were recorded every 30 minutes, totaling six samples for each stress situation. Afterwards, the audios were analyzed by Praat® 5.1.19 software, generating a sound spectrum. For determination of stress conditions, data were processed by WEKA® 3.5 software, using the decision tree algorithm C4.5, known as J48 in the software environment, considering cross-validation with samples of 10% (10-fold cross-validation). According to the Decision Tree, the acoustic most important attribute for the classification of stress conditions was sound Intensity (root node). It was not possible to identify, using the tested attributes, the animal gender by vocal register. A decision tree was generated for recognition of situations of swine hunger, thirst, and heat stress from records of sound intensity, Pitch frequency, and Formant 1.
Resumo:
This is a report on the data-mining of two chess databases, the objective being to compare their sub-7-man content with perfect play as documented in Nalimov endgame tables. Van der Heijden’s ENDGAME STUDY DATABASE IV is a definitive collection of 76,132 studies in which White should have an essentially unique route to the stipulated goal. Chessbase’s BIG DATABASE 2010 holds some 4.5 million games. Insight gained into both database content and data-mining has led to some delightful surprises and created a further agenda.