859 resultados para Data mining, Business intelligence, Previsioni di mercato


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'utilizzo di diete a base di microalghe per l'allevamento di novellame di molluschi bivalvi sta ottenendo sempre maggiore interesse data la crescente domanda di mercato nel settore dell'acquacoltura. Le dimensioni cellulari, la composizione biochimica e la digeribilità della parete cellulare delle microalghe sono fattori fondamentali per la loro applicabilità nell'alimentazione dei bivalvi; anche il contenuto di acidi grassi essenziali quali EPA e DHA ha un ruolo rilevante poiché influenza il tasso di crescita e di sviluppo degli animali. Nel presente studio sono stati utilizzati due ceppi autoctoni della Sacca di Goro del genere Thalassiosira, Pheaodactylum tricornutum, l'alga verde Tetraselmis chui e l'aptofita T-Iso, quest’ultima ampiamente utilizzata nell'alimentazione di diverse specie di molluschi bivalvi. Gli esperimenti condotti hanno permesso di (1) caratterizzare la crescita e la composizione biochimica delle 5 specie microalgali e (2) di analizzare l'applicabilità delle stesse tramite prove di alimentazione su larve e novellame di Ruditapes philippinarum, al fine di ottimizzarne la produzione. I risultati migliori, per numero di sopravvissuti e taglia raggiunta, sono stati ottenuti con larve alimentate con dieta plurispecifica a base di T-Iso e Thalassiosira ceppo A in rapporto 2:1; Thalassiosira ceppo A e P. tricornutum, in diete monospecifiche, sono state identificate come le più appetibili e assimilabili dal novellame, il quale mostra buoni valori del tasso massimo di clearance (2,17±0,25 e 2,27±0,15 L h-1, rispettivamente) e di efficienza di assorbimento del cibo (67 e 46%). Si è trattato di uno studio preliminare volto a verificare eventuali miglioramenti legati all’utilizzo di diete diversificate rispetto a quelle standardizzate di solito impiego; la ricerca di nuove specie algali e ulteriori analisi sulle attuali specie disponibili e sulla loro applicabilità potranno essere utili alla crescita sostenibile del settore dell’acquacoltura.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La disciplina pubblicistica dell’energia elettrica presenta specificità rilevanti rispetto ad altri settori della regolazione economica. Il settore energetico si caratterizza infatti per una complessa regolazione, dovuta sia alle specificità dell’oggetto della disciplina, cioè l’energia elettrica come bene immateriale, sia alla molteplicità degli interessi pubblici coinvolti, che si innestano su fallimenti di mercato (i.e. il sistema a rete non duplicabile), sia agli obiettivi di politica internazionale e di sicurezza nazionale, che intercettano delicate interrelazioni con l’ambiente e il clima, come tutelati nel Green Deal, nelle normative europee e nazionali e negli accordi internazionali sulla decarbonizzazione e sullo sviluppo sostenibile. Inoltre, la filiera elettrica è “verticalmente integrata”, cioè suddivisa in attività diverse, cioè la produzione, il dispacciamento, la trasmissione, la distribuzione, la vendita all’ingrosso e al dettaglio di energia. Queste sono esercitate in regimi di mercato differenti: monopolio naturale (dovuto al carattere sub-additivo dei costi) per il dispacciamento, la trasmissione e la distribuzione di energia; libera concorrenza per la produzione e la vendita. L’esigenza di assicurare la concorrenza nel mercato energetico si contempera con la necessità di rispettare gli obblighi di servizio pubblico, in un delicato bilanciamento tra esigenze contrapposte. La Direttiva U.E. del 13 luglio 2009 n. 2009/72/Cee, all’art. 3, qualifica infatti la fornitura di energia elettrica come un servizio universale, attribuendo agli utenti il diritto di ricevere la fornitura e di mantenere prezzi ragionevoli, facilmente e chiaramente comparabili, trasparenti e non discriminatori.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I salumi rappresentano una grande tradizione italiana, lo dimostra il fatto che l'industria suinicola nazionale è principalmente orientata all’allevamento di suino “pesante”, indirizzato proprio all'industria salumiera. L’industria salumiera moderna si trova a dover fare i conti con esigenze di mercato che possono sembrare contrastanti: da un lato si richiedono prodotti tradizionali e locali, dall’altro l’attenzione del consumatore si sta spostando verso ricette innovative, ingredienti naturali, di nicchia, salubri, etici, tracciati e a basso impatto ambientale. Alla luce di ciò, emerge la necessità di un maggiore livello di innovazione al fine di creare nuovi segmenti d’offerta in risposta ai diversi fabbisogni dei consumatori. Il presente lavoro si è posto come obiettivo quello di esaminare le strategie di differenziazione dei salumi fermentati adottate dal Salumificio DelVecchio di Cesena, discutendo le scelte aziendali in relazione alla letteratura scientifica. L’azienda, partendo da una linea di base, la Linea Tradizione, che copre tutti i principali salumi presenti sul territorio italiano, è riuscita a differenziare il proprio portafoglio intervenendo a livello di materie prime e di ricette. Sono state così realizzate la Linea Mora Romagnola, i cui salumi vengono prodotti utilizzando la carne dell’omonima razza; la Linea Bio, con 12 prodotti certificati presso l’ente CCPB - tale linea è stata ulteriormente differenziata con la proposta di 6 Salamini Boscone Aromatizzati; il Salamino Boscone Bio Fonte di Omega 3, in cui la fonte di omega-3 è data dall’aggiunta di semi di lino biologici; e la linea di salumi pre-affettati take-away pronti all’uso. Sulla base di questa analisi e della bibliografia riportata, il portafoglio del Salumificio DelVecchio, pur essendo un’azienda con un profilo soprattutto locale, risulta spiccatamente differenziato al fine di soddisfare le richieste di un’ampia gamma di consumatori.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A global italian pharmaceutical company has to provide two work environments that favor different needs. The environments will allow to develop solutions in a controlled, secure and at the same time in an independent manner on a state-of-the-art enterprise cloud platform. The need of developing two different environments is dictated by the needs of the working units. Indeed, the first environment is designed to facilitate the creation of application related to genomics, therefore, designed more for data-scientists. This environment is capable of consuming, producing, retrieving and incorporating data, furthermore, will support the most used programming languages for genomic applications (e.g., Python, R). The proposal was to obtain a pool of ready-togo Virtual Machines with different architectures to provide best performance based on the job that needs to be carried out. The second environment has more of a traditional trait, to obtain, via ETL (Extract-Transform-Load) process, a global datamodel, resembling a classical relational structure. It will provide major BI operations (e.g., analytics, performance measure, reports, etc.) that can be leveraged both for application analysis or for internal usage. Since, both architectures will maintain large amounts of data regarding not only pharmaceutical informations but also internal company informations, it would be possible to digest the data by reporting/ analytics tools and also apply data-mining, machine learning technologies to exploit intrinsic informations. The thesis work will introduce, proposals, implementations, descriptions of used technologies/platforms and future works of the above discussed environments.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Background: The inherent complexity of statistical methods and clinical phenomena compel researchers with diverse domains of expertise to work in interdisciplinary teams, where none of them have a complete knowledge in their counterpart's field. As a result, knowledge exchange may often be characterized by miscommunication leading to misinterpretation, ultimately resulting in errors in research and even clinical practice. Though communication has a central role in interdisciplinary collaboration and since miscommunication can have a negative impact on research processes, to the best of our knowledge, no study has yet explored how data analysis specialists and clinical researchers communicate over time. Methods/Principal Findings: We conducted qualitative analysis of encounters between clinical researchers and data analysis specialists (epidemiologist, clinical epidemiologist, and data mining specialist). These encounters were recorded and systematically analyzed using a grounded theory methodology for extraction of emerging themes, followed by data triangulation and analysis of negative cases for validation. A policy analysis was then performed using a system dynamics methodology looking for potential interventions to improve this process. Four major emerging themes were found. Definitions using lay language were frequently employed as a way to bridge the language gap between the specialties. Thought experiments presented a series of ""what if'' situations that helped clarify how the method or information from the other field would behave, if exposed to alternative situations, ultimately aiding in explaining their main objective. Metaphors and analogies were used to translate concepts across fields, from the unfamiliar to the familiar. Prolepsis was used to anticipate study outcomes, thus helping specialists understand the current context based on an understanding of their final goal. Conclusion/Significance: The communication between clinical researchers and data analysis specialists presents multiple challenges that can lead to errors.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

During the last few years, the evolution of fieldbus and computers networks allowed the integration of different communication systems involving both production single cells and production cells, as well as other systems for business intelligence, supervision and control. Several well-adopted communication technologies exist today for public and non-public networks. Since most of the industrial applications are time-critical, the requirements of communication systems for remote control differ from common applications for computer networks accessing the Internet, such as Web, e-mail and file transfer. The solution proposed and outlined in this work is called CyberOPC. It includes the study and the implementation of a new open communication system for remote control of industrial CNC machines, making the transmission delay for time-critical control data shorter than other OPC-based solutions, and fulfilling cyber security requirements.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Feature selection is one of important and frequently used techniques in data preprocessing. It can improve the efficiency and the effectiveness of data mining by reducing the dimensions of feature space and removing the irrelevant and redundant information. Feature selection can be viewed as a global optimization problem of finding a minimum set of M relevant features that describes the dataset as well as the original N attributes. In this paper, we apply the adaptive partitioned random search strategy into our feature selection algorithm. Under this search strategy, the partition structure and evaluation function is proposed for feature selection problem. This algorithm ensures the global optimal solution in theory and avoids complete randomness in search direction. The good property of our algorithm is shown through the theoretical analysis.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

No início da década de 90, as empresas começaram a sentir a necessidade de melhorar o acesso à informação das suas actividades para auxiliar na tomada de decisões. Desta forma, no mundo da informática, emergiu o sector Business Intelligence (BI) composto inicialmente por data warehousing e ferramentas de geração de relatórios. Ao longo dos anos o conceito de BI evoluiu de acordo com as necessidades empresariais, tornando a análise das actividades e do desempenho das organizações em aspectos críticos na gestão das mesmas. A área de BI abrange diversos sectores, sendo o de geração de relatórios e o de análise de dados aqueles que melhor preenchem os requisitos pretendidos no controlo de acesso à informação do negócio e respectivos processos. Actualmente o tempo e a informação são vantagens competitivas e por esse mesmo motivo as empresas estão cada vez mais preocupadas com o facto de o aumento do volume de informação estar a tornar-se insustentável na medida que o tempo necessário para processar a informação é cada vez maior. Por esta razão muitas empresas de software, tais como Microsoft, IBM e Oracle estão numa luta por um lugar neste mercado de BI em expansão. Para que as empresas possam ser competitivas, a sua capacidade de previsão e resposta às necessidades de mercado em tempo real é requisito principal, em detrimento da existência apenas de uma reacção a uma necessidade que peca por tardia. Os produtos de BI têm fama de trabalharem apenas com dados históricos armazenados, o que faz com que as empresas não se possam basear nessas soluções quando o requisito de alguns negócios é de tempo quase real. A latência introduzida por um data warehouse é demasiada para que o desempenho seja aceitável. Desta forma, surge a tecnologia Business Activity Monitoring (BAM) que fornece análise de dados e alertas em tempo quase real sobre os processos do negócio, utilizando fontes de dados como Web Services, filas de mensagens, etc. O conceito de BAM surgiu em Julho de 2001 pela organização Gartner, sendo uma extensão orientada a eventos da área de BI. O BAM define-se pelo acesso em tempo real aos indicadores de desempenho de negócios com o intuito de aumentar a velocidade e eficácia dos processos de negócio. As soluções BAM estão a tornar-se cada vez mais comuns e sofisticadas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper presents an integrated system that helps both retail companies and electricity consumers on the definition of the best retail contracts and tariffs. This integrated system is composed by a Decision Support System (DSS) based on a Consumer Characterization Framework (CCF). The CCF is based on data mining techniques, applied to obtain useful knowledge about electricity consumers from large amounts of consumption data. This knowledge is acquired following an innovative and systematic approach able to identify different consumers’ classes, represented by a load profile, and its characterization using decision trees. The framework generates inputs to use in the knowledge base and in the database of the DSS. The rule sets derived from the decision trees are integrated in the knowledge base of the DSS. The load profiles together with the information about contracts and electricity prices form the database of the DSS. This DSS is able to perform the classification of different consumers, present its load profile and test different electricity tariffs and contracts. The final outputs of the DSS are a comparative economic analysis between different contracts and advice about the most economic contract to each consumer class. The presentation of the DSS is completed with an application example using a real data base of consumers from the Portuguese distribution company.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

3rd SMTDA Conference Proceedings, 11-14 June 2014, Lisbon Portugal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dissertação apresentada como requisito parcial para a obtenção do grau de Mestre em Estatística e Gestão de Informação

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The clinical content of administrative databases includes, among others, patient demographic characteristics, and codes for diagnoses and procedures. The data in these databases is standardized, clearly defined, readily available, less expensive than collected by other means, and normally covers hospitalizations in entire geographic areas. Although with some limitations, this data is often used to evaluate the quality of healthcare. Under these circumstances, the quality of the data, for instance, errors, or it completeness, is of central importance and should never be ignored. Both the minimization of data quality problems and a deep knowledge about this data (e.g., how to select a patient group) are important for users in order to trust and to correctly interpret results. In this paper we present, discuss and give some recommendations for some problems found in these administrative databases. We also present a simple tool that can be used to screen the quality of data through the use of domain specific data quality indicators. These indicators can significantly contribute to better data, to give steps towards a continuous increase of data quality and, certainly, to better informed decision-making.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mestrado em Engenharia Informática, Área de Especialização em Tecnologias do Conhecimento e da Decisão

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Na atualidade, existe uma quantidade de dados criados diariamente que ultrapassam em muito as mais otimistas espectativas estabelecidas na década anterior. Estes dados têm origens bastante diversas e apresentam-se sobre várias formas. Este novo conceito que dá pelo nome de Big Data está a colocar novos e rebuscados desafios ao seu armazenamento, tratamento e manipulação. Os tradicionais sistemas de armazenamento não se apresentam como a solução indicada para este problema. Estes desafios são alguns dos mais analisados e dissertados temas informáticos do momento. Várias tecnologias têm emergido com esta nova era, das quais se salienta um novo paradigma de armazenamento, o movimento NoSQL. Esta nova filosofia de armazenamento visa responder às necessidades de armazenamento e processamento destes volumosos e heterogéneos dados. Os armazéns de dados são um dos componentes mais importantes do âmbito Business Intelligence e são, maioritariamente, utilizados como uma ferramenta de apoio aos processos de tomada decisão, levados a cabo no dia-a-dia de uma organização. A sua componente histórica implica que grandes volumes de dados sejam armazenados, tratados e analisados tendo por base os seus repositórios. Algumas organizações começam a ter problemas para gerir e armazenar estes grandes volumes de informação. Esse facto deve-se, em grande parte, à estrutura de armazenamento que lhes serve de base. Os sistemas de gestão de bases de dados relacionais são, há algumas décadas, considerados como o método primordial de armazenamento de informação num armazém de dados. De facto, estes sistemas começam a não se mostrar capazes de armazenar e gerir os dados operacionais das organizações, sendo consequentemente cada vez menos recomendada a sua utilização em armazéns de dados. É intrinsecamente interessante o pensamento de que as bases de dados relacionais começam a perder a luta contra o volume de dados, numa altura em que um novo paradigma de armazenamento surge, exatamente com o intuito de dominar o grande volume inerente aos dados Big Data. Ainda é mais interessante o pensamento de que, possivelmente, estes novos sistemas NoSQL podem trazer vantagens para o mundo dos armazéns de dados. Assim, neste trabalho de mestrado, irá ser estudada a viabilidade e as implicações da adoção de bases de dados NoSQL, no contexto de armazéns de dados, em comparação com a abordagem tradicional, implementada sobre sistemas relacionais. Para alcançar esta tarefa, vários estudos foram operados tendo por base o sistema relacional SQL Server 2014 e os sistemas NoSQL, MongoDB e Cassandra. Várias etapas do processo de desenho e implementação de um armazém de dados foram comparadas entre os três sistemas, sendo que três armazéns de dados distintos foram criados tendo por base cada um dos sistemas. Toda a investigação realizada neste trabalho culmina no confronto da performance de consultas, realizadas nos três sistemas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente documento de dissertação retrata o desenvolvimento do projeto PDS-Portal Institucional cujo cerne é um sistema para recolha, armazenamento e análise de dados (plataforma de Business Intelligence). Este portal está enquadrado na área da saúde e é uma peça fundamental no sistema da Plataforma de dados da Saúde, que é constituído por quatro portais distintos. Esta plataforma tem como base um sistema totalmente centrado no utente, que agrega dados de saúde dos utentes e distribui pelos diversos intervenientes: utente, profissionais de saúde nacionais e internacionais e organizações de saúde. O objetivo principal deste projeto é o desenvolvimento do PDS-Portal Institucional, recorrendo a uma plataforma de Business Intelligence, com o intuito de potenciar os utilizadores de uma ferramenta analítica para análise de dados. Estando a informação armazenada em dois dos portais da Plataforma de dados da Saúde (PDS-Portal Utente e PDS-Portal Profissional), é necessário modular um armazém de dados que agregue a informação de ambos e, através do PDS-PI, distribua um conjunto de análises ao utilizador final. Para tal este sistema comtempla um mecanismo totalmente automatizado para extração, tratamento e carregamento de dados para o armazém central, assim como uma plataforma de BI que disponibiliza os dados armazenados sobre a forma de análises específicas. Esta plataforma permite uma evolução constante e é extremamente flexível, pois fornece um mecanismo de gestão de utilizadores e perfis, assim como capacita o utilizador de um ambiente Web para análise de dados, permitindo a partilha e acesso a partir de dispositivos móveis. Após a implementação deste sistema foi possível explorar os dados e tirar diversas conclusões que são de extrema importância tanto para a evolução da PDS como para os métodos de praticar os cuidados de saúde em Portugal. Por fim são identificados alguns pontos de melhoria do sistema atual e delineada uma perspetiva de evolução futura. É certo que a partir do momento que este projeto seja lançado para produção, novas oportunidades surgirão e o contributo dos utilizadores será útil para evoluir o sistema progressivamente.