859 resultados para Data mining, Business intelligence, Previsioni di mercato


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Soft skills and teamwork practices were identi ed as the main de ciencies of recent graduates in computer courses. This issue led to a realization of a qualitative research aimed at investigating the challenges faced by professors of those courses in conducting, monitoring and assessing collaborative software development projects. Di erent challenges were reported by teachers, including di culties in the assessment of students both in the collective and individual levels. In this context, a quantitative research was conducted with the aim to map soft skill of students to a set of indicators that can be extracted from software repositories using data mining techniques. These indicators are aimed at measuring soft skills, such as teamwork, leadership, problem solving and the pace of communication. Then, a peer assessment approach was applied in a collaborative software development course of the software engineering major at the Federal University of Rio Grande do Norte (UFRN). This research presents a correlation study between the students' soft skills scores and indicators based on mining software repositories. This study contributes: (i) in the presentation of professors' perception of the di culties and opportunities for improving management and monitoring practices in collaborative software development projects; (ii) in investigating relationships between soft skills and activities performed by students using software repositories; (iii) in encouraging the development of soft skills and the use of software repositories among software engineering students; (iv) in contributing to the state of the art of three important areas of software engineering, namely software engineering education, educational data mining and human aspects of software engineering.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Al Large Hadron Collider (LHC) ogni anno di acquisizione dati vengono raccolti più di 30 petabyte di dati dalle collisioni. Per processare questi dati è necessario produrre un grande volume di eventi simulati attraverso tecniche Monte Carlo. Inoltre l'analisi fisica richiede accesso giornaliero a formati di dati derivati per centinaia di utenti. La Worldwide LHC Computing GRID (WLCG) è una collaborazione interazionale di scienziati e centri di calcolo che ha affrontato le sfide tecnologiche di LHC, rendendone possibile il programma scientifico. Con il prosieguo dell'acquisizione dati e la recente approvazione di progetti ambiziosi come l'High-Luminosity LHC, si raggiungerà presto il limite delle attuali capacità di calcolo. Una delle chiavi per superare queste sfide nel prossimo decennio, anche alla luce delle ristrettezze economiche dalle varie funding agency nazionali, consiste nell'ottimizzare efficientemente l'uso delle risorse di calcolo a disposizione. Il lavoro mira a sviluppare e valutare strumenti per migliorare la comprensione di come vengono monitorati i dati sia di produzione che di analisi in CMS. Per questa ragione il lavoro è comprensivo di due parti. La prima, per quanto riguarda l'analisi distribuita, consiste nello sviluppo di uno strumento che consenta di analizzare velocemente i log file derivanti dalle sottomissioni di job terminati per consentire all'utente, alla sottomissione successiva, di sfruttare meglio le risorse di calcolo. La seconda parte, che riguarda il monitoring di jobs sia di produzione che di analisi, sfrutta tecnologie nel campo dei Big Data per un servizio di monitoring più efficiente e flessibile. Un aspetto degno di nota di tali miglioramenti è la possibilità di evitare un'elevato livello di aggregazione dei dati già in uno stadio iniziale, nonché di raccogliere dati di monitoring con una granularità elevata che tuttavia consenta riprocessamento successivo e aggregazione “on-demand”.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Peer reviewed

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Peer reviewed

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Peer reviewed

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The organisational decision making environment is complex, and decision makers must deal with uncertainty and ambiguity on a continuous basis. Managing and handling decision problems and implementing a solution, requires an understanding of the complexity of the decision domain to the point where the problem and its complexity, as well as the requirements for supporting decision makers, can be described. Research in the Decision Support Systems domain has been extensive over the last thirty years with an emphasis on the development of further technology and better applications on the one hand, and on the other hand, a social approach focusing on understanding what decision making is about and how developers and users should interact. This research project considers a combined approach that endeavours to understand the thinking behind managers’ decision making, as well as their informational and decisional guidance and decision support requirements. This research utilises a cognitive framework, developed in 1985 by Humphreys and Berkeley that juxtaposes the mental processes and ideas of decision problem definition and problem solution that are developed in tandem through cognitive refinement of the problem, based on the analysis and judgement of the decision maker. The framework facilitates the separation of what is essentially a continuous process, into five distinct levels of abstraction of manager’s thinking, and suggests a structure for the underlying cognitive activities. Alter (2004) argues that decision support provides a richer basis than decision support systems, in both practice and research. The constituent literature on decision support, especially in regard to modern high profile systems, including Business Intelligence and Business analytics, can give the impression that all ‘smart’ organisations utilise decision support and data analytics capabilities for all of their key decision making activities. However this empirical investigation indicates a very different reality.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Heating, ventilation, air conditioning (HVAC) systems are significant consumers of energy, however building management systems do not typically operate them in accordance with occupant movements. Due to the delayed response of HVAC systems, prediction of occupant locations is necessary to maximize energy efficiency. We present an approach to occupant location prediction based on association rule mining, allowing prediction based on historical occupant locations. Association rule mining is a machine learning technique designed to find any correlations which exist in a given dataset. Occupant location datasets have a number of properties which differentiate them from the market basket datasets that association rule mining was originally designed for. This thesis adapts the approach to suit such datasets, focusing the rule mining process on patterns which are useful for location prediction. This approach, named OccApriori, allows for the prediction of occupants’ next locations as well as their locations further in the future, and can take into account any available data, for example the day of the week, the recent movements of the occupant, and timetable data. By integrating an existing extension of association rule mining into the approach, it is able to make predictions based on general classes of locations as well as specific locations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

During the SINOPS project, an optimal state of the art simulation of the marine silicon cycle is attempted employing a biogeochemical ocean general circulation model (BOGCM) through three particular time steps relevant for global (paleo-) climate. In order to tune the model optimally, results of the simulations are compared to a comprehensive data set of 'real' observations. SINOPS' scientific data management ensures that data structure becomes homogeneous throughout the project. Practical work routine comprises systematic progress from data acquisition, through preparation, processing, quality check and archiving, up to the presentation of data to the scientific community. Meta-information and analytical data are mapped by an n-dimensional catalogue in order to itemize the analytical value and to serve as an unambiguous identifier. In practice, data management is carried out by means of the online-accessible information system PANGAEA, which offers a tool set comprising a data warehouse, Graphical Information System (GIS), 2-D plot, cross-section plot, etc. and whose multidimensional data model promotes scientific data mining. Besides scientific and technical aspects, this alliance between scientific project team and data management crew serves to integrate the participants and allows them to gain mutual respect and appreciation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Estudiosos de todo el mundo se están centrando en el estudio del fenómeno de las ciudades inteligentes. La producción bibliográfica española sobre este tema ha crecido exponencialmente en los últimos años. Las nuevas ciudades inteligentes se fundamentan en nuevas visiones de desarrollo urbano que integran múltiples soluciones tecnológicas ligadas al mundo de la información y de la comunicación, todas ellas actuales y al servicio de las necesidades de la ciudad. La literatura en español sobre este tema proviene de campos tan diferentes como la Arquitectura, la Ingeniería, las Ciencias Políticas y el Derecho o las Ciencias Empresariales. La finalidad de las ciudades inteligentes es la mejora de la vida de sus ciudadanos a través de la implementación de tecnologías de la información y de la comunicación que resuelvan las necesidades de sus habitantes, por lo que los investigadores del campo de las Ciencias de la Comunicación y de la Información tienen mucho que decir. Este trabajo analiza un total de 120 textos y concluye que el fenómeno de las ciudades inteligentes será uno de los ejes centrales de la investigación multidisciplinar en los próximos años en nuestro país.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This article presents the response of the Centre for Copyright and New Business Models in the Creative Economy (CREATe) to the consultation on reform of the EU copyright regime. Reviews the format of the consultation, notes the common problems in reporting data in such a format, and reproduces the consultation questions to which CREATe responded, together with a summary of its conclusions on topics including: (1) terms of copyright protection; (2) libraries and archives; (3) persons with disabilities; (4) remuneration of authors; (5) user-generated content; (6) respect for rights; and (7) data mining.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this talk, I will describe various computational modelling and data mining solutions that form the basis of how the office of Deputy Head of Department (Resources) works to serve you. These include lessons I learn about, and from, optimisation issues in resource allocation, uncertainty analysis on league tables, modelling the process of winning external grants, and lessons we learn from student satisfaction surveys, some of which I have attempted to inject into our planning processes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Analisi degli scenari applicativi in ambiente Home Manager e progettazione, implementazione e collaudo di alcune delle funzionalità proposte.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il buon funzionamento di una qualsiasi tipologia di motore prevede l’utilizzo di un componente che abbia il compito di lubrificare le parti meccaniche in movimento, come, ad esempio, l’olio motore per l’automobile. Un fattore determinante nella scelta dell’olio è la variazione della sua viscosità in relazione alla variazione di temperatura, poiché la temperatura di esercizio di un macchinario è solitamente diversa dalla temperatura di avviamento. Tale valore viene identificato in maniera assoluta dal Viscosity Index (VI). L’olio motore è una formulazione complessa in cui sono presenti l’olio base ed una serie di additivi, tra cui molto importante è il modificatore di viscosità (Viscosity Index Improver, VII), che migliora il VI e permette di utilizzare lo stesso olio a basse ed alte temperature (olio multigrade). Come VII possono essere utilizzate diverse tipologie di polimeri solubili in olio, che variano per caratteristiche e target di mercato. La famiglia presa in esame in questa tesi è quella delle poli-alfa-olefine, utilizzate prevalentemente con oli base minerali, e più precisamente copolimeri etilene/propilene. Sono state analizzate le proprietà che questa famiglia ben nota di OCP (Olefin CoPolymer) ingenera nel sistema base-polimero. In particolare si è cercato di correlare le proprietà molecolari del polimero (composizione, peso molecolare e paracristallinità) con le proprietà “tecnologico-applicative” di ispessimento, stabilità meccanica al taglio, punto di non scorrimento, avviamento a freddo, pompabilità a freddo. L’attività è proseguita con la progettazione di un modello fisico, con l’obiettivo di predire il comportamento tecnologico del sistema olio-polimero in funzione delle proprietà molecolari di polimeri appartenenti alla classe delle poli-alfa-olefine lineari, esaminando anche le proprietà tecnologiche di un omopolimero sperimentale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A presente investigação propõe-se a atuar no sector turístico, uma vez que este é bombardeado diariamente por uma quantidade considerável de dados e informações. Atualmente, usufrui-se significativamente mais da tecnologia com a finalidade de promover e vender os produtos/serviços disponíveis no mercado. A par da evolução tecnológica, os utilizadores/clientes conseguem comprar, cada vez mais, à distancia de um clique os produtos turísticos que desejam. No entanto, há um variado leque de aplicações sobre o turismo que permitem entender os gostos e as necessidades dos turistas assim como a sua atitude para com o mesmo. Porém, nem as entidades nem os gestores turísticos usufruem inteligentemente dos dados que lhes são facultados. Estes tendem normalmente a prender-se pelo turismo em Portugal e de que forma é que a sua entidade é apresentada acabando por esquecer que os dados podem e devem ser utilizados para expandir o mercado assim como entender/conhecer potenciais mercados. Deste modo, o fundamento principal desta investigação remete para a criação de uma plataforma infocomunicacional que analise na totalidade os dados obtidos, assim como fornecer as ferramentas pertinentes para que se consiga fazer esta análise, nomeadamente através de uma representação infográfica adequada e estratégias de a comunicar aos stakeholders.. Para tal foi aplicada no âmbito desta dissertação a metodologia investigação/ação, vista como um processo cíclico que para além de incluir simultaneamente estas duas vertentes, vai alternando entre a ação e a reflexão critica sendo sustentada por bases teóricas. A criação do protótipo da plataforma Smart Tourism, resultou num sistema inovador que tenta responder aos indicadores escolhidos no Dashbord e ao problema infocomunicacional, tentando criar as bases necessárias para que as entidades consigam analisar de forma mais integrada/sistematizada e racional a atividade turística. Foi por isso, desenvolvido e avaliado qualitativamente um protótipo de base infocomunicacional visual (dashboard visual) que para além do que para além do que já foi referido, consegue proporcionar a gestão dos produtos, clientes, staff e parceiros, aumentando assim o valor deste sector.