942 resultados para Centralised data warehouse Architecture


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Disseny i implementació d'una base de dades relacional per a la gestió d'un videojoc, el qual s'ha d'incorporar a un sistema per obtenir dades d'ús dels usuaris.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Al TFC es desenvoluparà un magatzem de dades per tal d'explotar unes dades provinents de Twitter sobre un determinat esdeveniment col·lectiu.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tässä diplomityössä on tarkasteltu Metso Rautpohjan laatukustannustiedon sisäisiä raportointitarpeita ja -mahdollisuuksia päätöksenteon tueksi. Tehty tarkastelu liittyy aiemmin Rautpohjassa luotuun laaduttomuuden kustannusten kirjaus- ja seurantajärjestelmään, jonka avulla kyseisiä kustannuksia on organisaatiossa eritelty muista kustannuksista Baan-tietojärjestelmää käyttäen. Tämän työn tavoitteena oli löytää tapaustutkimuksen keinoin laaduttomuuden kustannuksiin liittyviä sisäisiä tietotarpeita, joihin voitaisiin löytää ratkaisuja Data Warehouse (DW) -tietovarastointi- ja raportointitekniikkaa sekä olemassa olevaa laaduttomuuden kustannustietomassaa 2008 hyödyntäen. Tutkimusta varten Rautpohjan organisaatiosta valittiin kullekin toiminnolle niitä edustavat vastuuhenkilöt, joita haastattelemalla pyrittiin selvittämään sisäisiä tietotarpeita laaduttomuuden kustannuksiin liittyen. Työn tuloksena jokaiselle tutkimukseen osallistuneelle toiminnolle luotiin vähintään yksi raporttipohja, jonka avulla niille voidaan jatkossa tuottaa tarvittavaa, kohdennettua laaduttomuuden kustannustietoa omaan toimintaan liittyen. Laaduttomuuden kustannusten rinnalla tässä työssä tutkittiin myös mahdollisia kehitystarpeita Rautpohjan ympäristökustannuksien seurantaan liittyen. Suuremmassa mittakaavassa tällä työllä on pyritty tukemaan laaduttomuuden kustannusten minimointia paitsi Rautpohjassa, mutta myös Metson linjaorganisaatiossa yleisesti. Raportoinnin perimmäisenä tarkoituksena oli mahdollistaa laaduttomuuden kustannusten taustalla olevien syiden ja tapahtumien analysointi, ja sitä kautta edesauttaa laaduttomuuden kustannusten minimoimiseen tähtäävää kehitystyötä. Metso Rautpohjassa toimiviksi havaittuja laaduttomuuden kustannusten seurantaan ja analysointiin käytettyjä menetelmiä voidaan haluttaessa soveltaa myös muissa Metso-yksiköissä.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tässä työssä käsitellään lähinnä relaatiomallia hyödyntäviä tiedonhallintajärjestelmiä. Tiedonhallintajärjestelmä hallitsee yleisesti tietokannan luontia, käyttöä ja muutoksia ja relaatiomallia käyttävät tiedonhallintajärjestelmät ovat jo 1970 -luvulta lähtien olleet hallitseva trendi tietokantamarkkinoilla. Työssä otetaan huomioon neljä eri tiedonhallintajärjestelmä-tyyppiä, jotka ovat keskitetyt, hajautetut, tietovarasto ja operatiiviset tiedonhallintajärjestelmät. Työssä selvitetään, miten näitä tiedonhallintajärjestelmiä voi verrata ja mitkä valintakriteerit vaikuttavat niiden valintaan.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In recent years, chief information officers (CIOs) around the world have identified Business Intelligence (BI) as their top priority and as the best way to enhance their enterprises competitiveness. Yet, many enterprises are struggling to realize the business value that BI promises. This discrepancy causes important questions, for example: what are the critical success factors of Business Intelligence and, more importantly, how it can be ensured that a Business Intelligence program enhances enterprises competitiveness. The main objective of the study is to find out how it can be ensured that a BI program meets its goals in providing competitive advantage to an enterprise. The objective is approached with a literature review and a qualitative case study. For the literature review the main objective populates three research questions (RQs); RQ1: What is Business Intelligence and why is it important for modern enterprises? RQ2: What are the critical success factors of Business Intelligence programs? RQ3: How it can be ensured that CSFs are met? The qualitative case study covers the BI program of a Finnish global manufacturer company. The research questions for the case study are as follows; RQ4: What is the current state of the case company’s BI program and what are the key areas for improvement? RQ5: In what ways the case company’s Business Intelligence program could be improved? The case company’s BI program is researched using the following methods; action research, semi-structured interviews, maturity assessment and benchmarking. The literature review shows that Business Intelligence is a technology-based information process that contains a series of systematic activities, which are driven by the specific information needs of decision-makers. The objective of BI is to provide accurate, timely, fact-based information, which enables taking actions that lead to achieving competitive advantage. There are many reasons for the importance of Business Intelligence, two of the most important being; 1) It helps to bridge the gap between an enterprise’s current and its desired performance, and 2) It helps enterprises to be in alignment with key performance indicators meaning it helps an enterprise to align towards its key objectives. The literature review also shows that there are known critical success factors (CSFs) for Business Intelligence programs which have to be met if the above mentioned value is wanted to be achieved, for example; committed management support and sponsorship, business-driven development approach and sustainable data quality. The literature review shows that the most common challenges are related to these CSFs and, more importantly, that overcoming these challenges requires a more comprehensive form of BI, called Enterprise Performance Management (EPM). EPM links measurement to strategy by focusing on what is measured and why. The case study shows that many of the challenges faced in the case company’s BI program are related to the above-mentioned CSFs. The main challenges are; lack of support and sponsorship from business, lack of visibility to overall business performance, lack of rigid BI development process, lack of clear purpose for the BI program and poor data quality. To overcome these challenges the case company should define and design an enterprise metrics framework, make sure that BI development requirements are gathered and prioritized by business, focus on data quality and ownership, and finally define clear goals for the BI program and then support and sponsor these goals.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tuotetakuusta aiheutuvat kustannukset ovat osa liiketoiminnan kulurakennetta, jolloin ne myös vaikuttavat liiketoiminnan kannattavuuteen. Takuukustannukset muodostuvat tuotteiden puutteellisesta laadusta, luotettavuudesta tai yleisesti tuotteiden kykenemättömyydestä saavuttaa niille asetettuja vaatimuksia. Tällöin takuukustannusten analyysissä poraudutaan tuotteiden ongelmien perimmäisiin syihin takuuliitännäisen datan avulla, pyrkimyksenä tarjota informaatiota todellisista tuotteiden ongelmien syistä. Tässä tutkimuksessa selvitetään tuotannon laadun vaikutusta tuotteen kannattavuuteen ja laatuun elektroniikkateollisuudessa. Tutkimus toteutettiin kvantitatiivisena tutkimuksena, jonka aineisto koostettiin elektroniikkateollisuudessa toimivan yrityksen keskitetystä tietovarastosta hyödyntämällä tietokantakyselyjä. Aineisto koostuu yhteensä 218493:sta kappaleesta tietyn tuotemallin tuotetta, jotka ovat valmistettu yhdessä tuotantolaitoksessa. Tutkimustulosten perusteella voidaan todeta tuotannon laadun vaikuttavan tuotteiden laatuun ja kannattavuuteen.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The original contribution of this thesis to knowledge are novel digital readout architectures for hybrid pixel readout chips. The thesis presents asynchronous bus-based architecture, a data-node based column architecture and a network-based pixel matrix architecture for data transportation. It is shown that the data-node architecture achieves readout efficiency 99% with half the output rate as a bus-based system. The network-based solution avoids “broken” columns due to some manufacturing errors, and it distributes internal data traffic more evenly across the pixel matrix than column-based architectures. An improvement of > 10% to the efficiency is achieved with uniform and non-uniform hit occupancies. Architectural design has been done using transaction level modeling (TLM) and sequential high-level design techniques for reducing the design and simulation time. It has been possible to simulate tens of column and full chip architectures using the high-level techniques. A decrease of > 10 in run-time is observed using these techniques compared to register transfer level (RTL) design technique. Reduction of 50% for lines-of-code (LoC) for the high-level models compared to the RTL description has been achieved. Two architectures are then demonstrated in two hybrid pixel readout chips. The first chip, Timepix3 has been designed for the Medipix3 collaboration. According to the measurements, it consumes < 1 W/cm^2. It also delivers up to 40 Mhits/s/cm^2 with 10-bit time-over-threshold (ToT) and 18-bit time-of-arrival (ToA) of 1.5625 ns. The chip uses a token-arbitrated, asynchronous two-phase handshake column bus for internal data transfer. It has also been successfully used in a multi-chip particle tracking telescope. The second chip, VeloPix, is a readout chip being designed for the upgrade of Vertex Locator (VELO) of the LHCb experiment at CERN. Based on the simulations, it consumes < 1.5 W/cm^2 while delivering up to 320 Mpackets/s/cm^2, each packet containing up to 8 pixels. VeloPix uses a node-based data fabric for achieving throughput of 13.3 Mpackets/s from the column to the EoC. By combining Monte Carlo physics data with high-level simulations, it has been demonstrated that the architecture meets requirements of the VELO (260 Mpackets/s/cm^2 with efficiency of 99%).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Échange automatisé de messages préprogrammés, communication par courrier électronique, gestion électronique de documents (GED), Data warehouse, EDI… Le monde des affaires vibre depuis quelques années au rythme des nouvelles technologies de l’information. Le droit commercial lui, a du mal à emboîter le pas. Pourtant, les problèmes juridiques soulevés par ce règne de l’immatériel sont majeurs et les incertitudes, grandissantes. La mobilité accrue que permettent ces techniques modernes de transmission et de gestion des informations suggère une solution concertée, qui plus est, tiendra compte de l’évolution hâtée dans ce domaine. Le fondement en a été donné à travers la Loi type des Nations unies sur le commerce électronique en 1996. Plusieurs législations l’ont choisi comme modèle. La législation canadienne est de celles-ci, avec notamment sa Loi uniforme sur le commerce électronique adoptée par la Conférence pour l’harmonisation des lois au Canada en 1999. La législation québécoise aussi a suivi le mouvement. Le 16 juin 2000, un avant-projet de loi portant sur la normalisation juridique des technologies de l’information fut déposé devant l’Assemblée nationale. Cet avant-projet de loi est devenu projet de loi 161, Loi concernant le cadre juridique des technologies de l’information. Mais au-delà des apparences, le législateur québécois semble s’être écarté de la philosophie qui a influencé la Loi type et, conséquemment, la Loi uniforme. Si cette remarque est vérifiée, il faudra craindre l’isolement du Québec et, par ricochet, un positionnement peu concurrentiel dans le commerce international.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se basa en un análisis teórico de los sistemas de información como lo es el almacenaje de datos, cubos OLAP e inteligencia de negocios. Seguidamente, se hace un análisis de los sectores económicos de Colombia con un especial interés sobre el sector de alimentos, de esta manera conceptualizar la empresa sobre la cual este trabajo se enfocara. Se encontrará un análisis del caso de éxito Summerwood Corporation, el cual brindará una justificación para la propuesta final presentada a la empresa Dipsa Food, Pyme dedicada a la producción de alimentos no perecederos ubicada en la ciudad de Bogotá D.C –Colombia, la cual tiene gran interés en cuanto al desarrollo de nuevas tecnologías que brinden información fidedigna para la toma de decisiones

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabajo recopila literatura académica relevante sobre estrategias de entrada y metodologías para la toma de decisión sobre la contratación de servicios de Outsourcing para el caso de empresas que planean expandirse hacia mercados extranjeros. La manera en que una empresa planifica su entrada a un mercado extranjero, y realiza la consideración y evaluación de información relevante y el diseño de la estrategia, determina el éxito o no de la misma. De otro lado, las metodologías consideradas se concentran en el nivel estratégico de la pirámide organizacional. Se parte de métodos simples para llegar a aquellos basados en la Teoría de Decisión Multicriterio, tanto individuales como híbridos. Finalmente, se presenta la Dinámica de Sistemas como herramienta valiosa en el proceso, por cuanto puede combinarse con métodos multicriterio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

As soluções informáticas de Customer Relationship Management (CRM) e os sistemas de suporte à informação, designados por Business Intelligence (BI), permitem a recolha de dados e a sua transformação em informação e em conhecimento, vital para diferenciação das organizações num Mundo globalizado e em constante mudança. A construção de um Data Warehouse corporativo é fundamental para as organizações que utilizam vários sistemas operacionais de modo a ser possível a agregação da informação. A Fundação INATEL – uma fundação privada de interesse público, 100% estatal – é um exemplo deste tipo de organização. Com uma base de dados de clientes superior a 250.000, atuando em áreas tão diferentes como sejam o Turismo, a Cultura e o Desporto, sustentado em mais de 25 sistemas informáticos autónomos. A base de estudo deste trabalho é a procura de identificação dos benefícios da implementação de um CRM Analítico na Fundação INATEL. Apresentando-se assim uma metodologia para a respetiva implementação e sugestão de um modelo de dados para a obtenção de uma visão única do cliente, acessível a toda a organização, de modo a garantir a total satisfação e consequente fidelização à marca INATEL. A disponibilização desta informação irá proporcionar um posicionamento privilegiado da Fundação INATEL e terá um papel fundamental na sua sustentabilidade económica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Data Warehouse (DW) é um processo que aglutina dados de fontes heterogêneas, incluindo dados históricos e dados externos para atender à necessidade de consultas estruturadas e ad-hoc, relatórios analíticos e de suporte de decisão. Já um Case-Based Reasoning (CBR) é uma técnica de Inteligência Artificial (AI – Artificial Intelligence) para a representação de conhecimento e inferência, que propõe a solução de novos problemas adaptando soluções que foram usadas para resolver problemas anteriores. A descrição de um problema existente, ou um caso é utilizado para sugerir um meio de resolver um novo problema, avisar o usuário de possíveis falhas que ocorreram anteriormente e interpretar a situação atual. Esta dissertação tem por objetivo apresentar um estudo do uso de um DW combinado com um CBR para a verificação de “risco” de inadimplência no setor de telecomunicações. Setor este que devido as grandes mudanças que ocorreram no mercado, que passam desde a privatização do setor e a entrada de novas operadoras fixas e celulares, criando um ambiente de concorrência, anteriormente inexistente, possibilitando assim ao cliente trocar de operadora ou até mesmo deixar a telefonia fixa e ficar somente com a celular, e vai até ao fato da estabilização econômica e as novas práticas de mercado, que determinou a baixa das multas, tornando assim compensador aos clientes deixar as faturas vencidas a perder juros de aplicações ou pagar juros bancários para quitar a sua dívida, visto que a empresa telefônica só pode aplicar as sanções com o prazo de 30 dias. Este trabalho mostra o desenvolvimento de um CBR para aplicação na área de Crédito e Cobrança, onde são detalhados os vários passos, a utilização do mesmo junto ao um DW, o que proporciona a comparação com desenvolvimento de outros sistemas similares e as diferenças (vantagens e desvantagens) que isso traz ao mesmo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pós-graduação em Ciências Cartográficas - FCT

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente Tesi di Laurea Specialistica considera, partendo da un'analisi della normativa vigente e delle procedure aziendali interne, il Sistema di Gestione Integrato Qualità  Sicurezza Ambiente (SGI QSA) di HERA SpA con particolare attenzione alle tematiche relative alla Prevenzione e Protezione sul luogo di lavoro in riferimento al Testo Unico sulla sicurezza (D.Lgs 81/2008) . Nello specifico, l'elaborato si basa sull'esperienza maturata durante cinque mesi di stage effettuati presso l'ufficio "Servizio Prevenzione e Protezione" della Struttura Operativa Territoriale (SOT) Bologna. Durante la mia permanenza in HERA SpA, ho avuto modo di osservare e prendere parte alle attività  quotidianamente svolte sia in ufficio che presso gli impianti dislocati nel territorio della provincia di Bologna con particolare riguardo alla raccolta, gestione e fruibilità  dei dai inerenti la sicurezza dei luoghi di lavoro. Nell'ambito dello stage, ho avuto anche la possibilità , estremamente formativa, di prendere visione dei processi, delle tecnologie e delle modalità  operative sottostanti l'erogazione di servizi da parte di una Multiutility; acquisire consapevolezza e know how in merito alle energie messe in campo per effettuare attività  quali la raccolta e lo smaltimento di rifiuti piuttosto che rendere disponibile alle utenze la fornitura di acqua e gas. Ritengo che questo possa darmi un valore aggiunto sia da un punto di vista professionale che da un punto di vista umano. Scopo primario di questa trattazione è effettuare l'istantanea di un'azienda complessa e in rapida evoluzione come HERA a partire della Salute e Sicurezza dei Lavoratori con l'obiettivo di indicare le attività  eseguite durante lo stage e il contributo fornito allo sviluppo e al mantenimento del SGS (Sistema di Gestione per la Salute e la sicurezza). Per meglio evidenziare la diversa natura delle informazioni riportate, l'elaborato risulta diviso in due parti fondamentali: La I PARTE riguarda lo studio della normativa che regola il settore con particolare riferimento al TUSL Testo Unico per la Sicurezza sui Luoghi di Lavoro (norma vigente in Italia) e allo standard britannico OHSAS 18001 a cui possono fare riferimento le organizzazioni che intendono certificare il proprio sistema di gestione in materia di sicurezza. In seguito si andranno ad analizzare le norme ISO 9001e ISO14001 che riguardano rispettivamente la possibilità  di certificare il proprio sistema di gestione in merito a Qualità  del servizio e tutela dell'Ambiente. Infine saranno proposte alcune riflessioni riguardanti la necessità  di sviluppare un sistema di gestione integrato e certificato che permetta di avere una visione unitaria di Qualità  Sicurezza e Ambiente. Nella II PARTE si entrerà  nel merito delle attività  svolte dall'ufficio Prevenzione e Protezione: a partire dalle procedure aziendali che fungono da punto di contatto fra gli obblighi normativi e la necessità  di regolare l'operatività  dei lavoratori, saranno descritte le mansioni che mi sono state affidate e le attività  svolte durante lo stage.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Oggi piu' che mai e' fondamentale essere in grado di estrarre informazioni rilevanti e conoscenza dal grande numero di dati che ci possono arrivare da svariati contesti, come database collegati a satelliti e sensori automatici, repository generati dagli utenti e data warehouse di grandi compagnie. Una delle sfide attuali riguarda lo sviluppo di tecniche di data mining per la gestione dell’incertezza. L’obiettivo di questa tesi e' di estendere le attuali tecniche di gestione dell’incertezza, in particolare riguardanti la classificazione tramite alberi decisionali, in maniera tale da poter gestire incertezza anche sull’attributo di classe.