593 resultados para 3PL-warehouse
Resumo:
MEGAGEO - Moving megaliths in the Neolithic is a project that intends to find the provenience of lithic materials in the construction of tombs. A multidisciplinary approach is carried out, with researchers from several of the knowledge fields involved. This work presents a spatial data warehouse specially developed for this project that comprises information from national archaeological databases, geographic and geological information and new geochemical and petrographic data obtained during the project. The use of the spatial data warehouse proved to be essential in the data analysis phase of the project. The Redondo Area is presented as a case study for the application of the spatial data warehouse to analyze the relations between geochemistry, geology and the tombs in this area.
Resumo:
I dati sono una risorsa di valore inestimabile per tutte le organizzazioni. Queste informazioni vanno da una parte gestite tramite i classici sistemi operazionali, dall’altra parte analizzate per ottenere approfondimenti che possano guidare le scelte di business. Uno degli strumenti fondamentali a supporto delle scelte di business è il data warehouse. Questo elaborato è il frutto di un percorso di tirocinio svolto con l'azienda Injenia S.r.l. Il focus del percorso era rivolto all'ottimizzazione di un data warehouse che l'azienda vende come modulo aggiuntivo di un software di nome Interacta. Questo data warehouse, Interacta Analytics, ha espresso nel tempo notevoli criticità architetturali e di performance. L’architettura attualmente usata per la creazione e la gestione dei dati all'interno di Interacta Analytics utilizza un approccio batch, pertanto, l’obiettivo cardine dello studio è quello di trovare soluzioni alternative batch che garantiscano un risparmio sia in termini economici che di tempo, esplorando anche la possibilità di una transizione ad un’architettura streaming. Gli strumenti da utilizzare in questa ricerca dovevano inoltre mantenersi in linea con le tecnologie utilizzate per Interacta, ossia i servizi della Google Cloud Platform. Dopo una breve dissertazione sul background teorico di questa area tematica, l'elaborato si concentra sul funzionamento del software principale e sulla struttura logica del modulo di analisi. Infine, si espone il lavoro sperimentale, innanzitutto proponendo un'analisi delle criticità principali del sistema as-is, dopodiché ipotizzando e valutando quattro ipotesi migliorative batch e due streaming. Queste, come viene espresso nelle conclusioni della ricerca, migliorano di molto le performance del sistema di analisi in termini di tempistiche di elaborazione, di costo totale e di semplicità dell'architettura, in particolare grazie all'utilizzo dei servizi serverless con container e FaaS della piattaforma cloud di Google.
Resumo:
Geographic Data Warehouses (GDW) are one of the main technologies used in decision-making processes and spatial analysis, and the literature proposes several conceptual and logical data models for GDW. However, little effort has been focused on studying how spatial data redundancy affects SOLAP (Spatial On-Line Analytical Processing) query performance over GDW. In this paper, we investigate this issue. Firstly, we compare redundant and non-redundant GDW schemas and conclude that redundancy is related to high performance losses. We also analyze the issue of indexing, aiming at improving SOLAP query performance on a redundant GDW. Comparisons of the SB-index approach, the star-join aided by R-tree and the star-join aided by GiST indicate that the SB-index significantly improves the elapsed time in query processing from 25% up to 99% with regard to SOLAP queries defined over the spatial predicates of intersection, enclosure and containment and applied to roll-up and drill-down operations. We also investigate the impact of the increase in data volume on the performance. The increase did not impair the performance of the SB-index, which highly improved the elapsed time in query processing. Performance tests also show that the SB-index is far more compact than the star-join, requiring only a small fraction of at most 0.20% of the volume. Moreover, we propose a specific enhancement of the SB-index to deal with spatial data redundancy. This enhancement improved performance from 80 to 91% for redundant GDW schemas.
Resumo:
BACKGROUND: The profile of blood donors changed dramatically in Brazil over the past 20 years, from remunerated to nonremunerated and then from replacement to community donors. Donor demographic data from three major blood centers establish current donation profiles in Brazil, serving as baseline for future analyses and tracking longitudinal changes in donor characteristics. STUDY DESIGN AND METHODS: Data were extracted from the blood center, compiled in a data warehouse, and analyzed. Population data were obtained from the Brazilian census. RESULTS: During 2007 to 2008, there were 615,379 blood donations from 410,423 donors. A total of 426,142 (69.2%) were from repeat (Rpt) donors and 189,237 (30.8%) were from first-time (FT) donors. Twenty percent of FT donors returned to donate in the period. FT donors were more likely to be younger, and Rpt donors were more likely to be community donors. All were predominantly male. Replacement donors still represent 50% of FT and 30% of Rpt donors. The mean percentage of the potentially general population who were donors was approximately 1.2% for the three centers (0.7, 1.5, and 3.1%). Adjusting for the catchment`s area, the first two were 2.1 and 1.6%. CONCLUSIONS: Donors in the three Brazilian centers tended to be younger with a higher proportion of males than in the general population. Donation rates were lower than desirable. There were substantial differences in sex, age, and community/replacement status by center. Studies on the safety, donation frequencies, and motivations of donors are in progress to orient efforts to enhance the availability of blood.
Resumo:
A data warehouse is a data repository which collects and maintains a large amount of data from multiple distributed, autonomous and possibly heterogeneous data sources. Often the data is stored in the form of materialized views in order to provide fast access to the integrated data. One of the most important decisions in designing a data warehouse is the selection of views for materialization. The objective is to select an appropriate set of views that minimizes the total query response time with the constraint that the total maintenance time for these materialized views is within a given bound. This view selection problem is totally different from the view selection problem under the disk space constraint. In this paper the view selection problem under the maintenance time constraint is investigated. Two efficient, heuristic algorithms for the problem are proposed. The key to devising the proposed algorithms is to define good heuristic functions and to reduce the problem to some well-solved optimization problems. As a result, an approximate solution of the known optimization problem will give a feasible solution of the original problem. (C) 2001 Elsevier Science B.V. All rights reserved.
Resumo:
It approaches the growth of the city of Colatina-ES, the county seat that has urban economy and urban population, and territory with most of the rural area. Rural areas, however, contribute little to the city s economy and are largely environmentally degraded, idle and waiting for recovery. The objective is to understand the growth of the city of Colatina, and the factors and consequences of this growth. Land division projects, investments and interventions in urban and rural areas were collected for the analysis. As a median-sized city characterized by central and regional polarity, but outside of the main investments in the state, Colatina seeks to take advantage of its situation of commercial warehouse city and road junction to stay alive in the regional economy. The citys economy is based on trade and services, but seeks to attract investment to the industry and logistics. The expansion of the city since the early formation follows the road system, which creates a dispersed spatiality. The characteristics of the urban growth of Colatina are the result of economic development strategies, interests in the property market and a government that abstains from urban control. These factors lead a sprawl urbanization that presents itself costly and not sustainable for urban and rural areas because it creates segregation, higher infrastructure costs, low-density and monofunctional urban spaces, pollution, and worsening of environmental depletion. The challenges for sustainable growth of the city of Colatina depends on a municipal and regional planning, which qualifies and diversifies its urban areas, avoids unnecessary expansion of the urban perimeter, retrieves its environmental degraded areas and leverages the agricultural activities in a productive and less aggressive way to the environment
Resumo:
No início da década de 90, as empresas começaram a sentir a necessidade de melhorar o acesso à informação das suas actividades para auxiliar na tomada de decisões. Desta forma, no mundo da informática, emergiu o sector Business Intelligence (BI) composto inicialmente por data warehousing e ferramentas de geração de relatórios. Ao longo dos anos o conceito de BI evoluiu de acordo com as necessidades empresariais, tornando a análise das actividades e do desempenho das organizações em aspectos críticos na gestão das mesmas. A área de BI abrange diversos sectores, sendo o de geração de relatórios e o de análise de dados aqueles que melhor preenchem os requisitos pretendidos no controlo de acesso à informação do negócio e respectivos processos. Actualmente o tempo e a informação são vantagens competitivas e por esse mesmo motivo as empresas estão cada vez mais preocupadas com o facto de o aumento do volume de informação estar a tornar-se insustentável na medida que o tempo necessário para processar a informação é cada vez maior. Por esta razão muitas empresas de software, tais como Microsoft, IBM e Oracle estão numa luta por um lugar neste mercado de BI em expansão. Para que as empresas possam ser competitivas, a sua capacidade de previsão e resposta às necessidades de mercado em tempo real é requisito principal, em detrimento da existência apenas de uma reacção a uma necessidade que peca por tardia. Os produtos de BI têm fama de trabalharem apenas com dados históricos armazenados, o que faz com que as empresas não se possam basear nessas soluções quando o requisito de alguns negócios é de tempo quase real. A latência introduzida por um data warehouse é demasiada para que o desempenho seja aceitável. Desta forma, surge a tecnologia Business Activity Monitoring (BAM) que fornece análise de dados e alertas em tempo quase real sobre os processos do negócio, utilizando fontes de dados como Web Services, filas de mensagens, etc. O conceito de BAM surgiu em Julho de 2001 pela organização Gartner, sendo uma extensão orientada a eventos da área de BI. O BAM define-se pelo acesso em tempo real aos indicadores de desempenho de negócios com o intuito de aumentar a velocidade e eficácia dos processos de negócio. As soluções BAM estão a tornar-se cada vez mais comuns e sofisticadas.
Resumo:
Mestrado em Engenharia Electrotécnica e de Computadores
Resumo:
Projecto para obtenção do grau de Mestre em Engenharia Informática e de computadores
Resumo:
Several activities are ensured by dockers increase occupational exposure to several risk factors. being one of them the fungal burden from the load. In this study we aim at characterizing fungal contamination in one warehouse that storage sugar cane from a ship, and also in one crane cabinet that unload the same sugar cane from the ship. Air samples were collected from the warehouse and from inside the crane cabinet. An outdoor sample was also collected, from each sampling site, and regarding as reference. Sampling volume was selected depending in the contamination expected and the air samples were collect through an impaction method in a flow rate of 140 L/min onto malt extract agar (MEA) supplemented with chloramphenicol (0.05%), using the Millipore air Tester (Millipore). Surfaces samples from the warehouse were collected by swabbing the surfaces of the same indoor sites, using a 10 by 10cm square stencil according to the International Standard ISO 18593 (2004). The obtained swabs were then plated onto MEA. All the collected samples were incubated at 27ºC for 5 to 7 days. After laboratory processing and incubation of the collected samples, quantitative (colony-forming units - CFU/m3 and CFU/m2) and qualitative results were obtained with identification of the isolated fungal species. Aspergillus fumigatus present the highest fungal load and WHO guideline was overcome in both indoor sampling sites. The results obtained in this study highlight the need to know better the exposure burden from dockers, and specifically to fungi contamination.
Resumo:
Este documento apresenta o desenvolvimento de um sistema que visa relacionar e interligar as tecnologias móveis, automação industrial e SAP às necessidades da Gopaca, uma empresa de produção de derivados de cartão. A empresa Gopaca demonstrou interesse e necessidade em melhorar os seus processos internos de maneira a aumentar produtividade, diminuir desperdícios e implementar uma filosofia de Lean Manufacturing. Para que isso fosse possível foram implementados novos processos em SAP de modo a automatizar todo o processo pré-produtivo, pós produtivo e expedicional, bem como implementado um sistema de Warehouse Management inovador a nível mundial no que a empresas de produção de cartão diz respeito. Sendo expectável que após a conclusão do projecto os resultados fossem inegáveis em termos de aplicação da metodologia Lean Manufacturing. Foram efectuadas melhorias na forma como a entrada de mercadoria e produção é feita em SAP, passando de completamente manual para completamente automática, até à forma como a expedição será feita, apenas necessitando de um operador com uma pistola de leitura de códigos de barra para despoletar o processo completo até ao momento de impressão da guia de transporte. Todo este processo é inovador no que diz respeito à sua implementação em SAP com o foco no desejo do cliente, não existindo ainda, nenhum produto (modulo SAP) no mercado que permita a execução automática dos processos indicados. Todos os processos se tornaram simples e intuitivos e na maior parte dos casos sem qualquer necessidade de interacção com o utilizador, reduzindo o tempo anteriormente despendido nesta operações, podendo este ser aplicado nas áreas onde é realmente necessário.
Resumo:
Este trabalho baseia-se num caso de estudo real de planeamento de operações de armazenagem num silo rural de cereais, e enquadra-se nos problemas de planeamento e programação de armazéns. Os programadores deparam-se diariamente com o problema de arranjar a melhor solução de transferência entre células de armazenagem, tentando maximizar o número de células vazias, por forma a ter maior capacidade para receber novos lotes, respeitando as restrições de receção e expedição, e as restrições de capacidade das linhas de transporte. Foi desenvolvido um modelo matemático de programação linear inteira mista e uma aplicação em Excel, com recurso ao VBA, para a sua implementação. Esta implementação abrangeu todo o processo relativo à atividade em causa, isto é, vai desde a recolha de dados, seu tratamento e análise, até à solução final de distribuição dos vários produtos pelas várias células. Os resultados obtidos mostram que o modelo otimiza o número de células vazias, tendo em conta os produtos que estão armazenados mais os que estão para ser rececionados e expedidos, em tempo computacional inferior a 60 segundos, constituindo, assim, uma importante mais valia para a empresa em causa.
Integration of an automatic storage and retrieval system (ASRS) in a discrete-part automation system
Resumo:
This technical report describes the work carried out in a project within the ERASMUS programme. The objective of this project was the Integration of an Automatic Warehouse in a Discrete-Part Automation System. The discrete-part automation system located at the LASCRI (Critical Systems) laboratory at ISEP was extended with automatic storage and retrieval of the manufacturing parts, through the integration of an automatic warehouse and an automatic guided vehicle (AGV).
Resumo:
Trabalho de projeto apresentado à Escola Superior de Comunicação Social como parte dos requisitos para obtenção de grau de mestre em Publicidade e Marketing.
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica