861 resultados para Ecosystem management -- Queensland -- Johnstone (Shire) -- Data processing.
Resumo:
How can GPU acceleration be obtained as a service in a cluster? This question has become increasingly significant due to the inefficiency of installing GPUs on all nodes of a cluster. The research reported in this paper is motivated to address the above question by employing rCUDA (remote CUDA), a framework that facilitates Acceleration-as-a-Service (AaaS), such that the nodes of a cluster can request the acceleration of a set of remote GPUs on demand. The rCUDA framework exploits virtualisation and ensures that multiple nodes can share the same GPU. In this paper we test the feasibility of the rCUDA framework on a real-world application employed in the financial risk industry that can benefit from AaaS in the production setting. The results confirm the feasibility of rCUDA and highlight that rCUDA achieves similar performance compared to CUDA, provides consistent results, and more importantly, allows for a single application to benefit from all the GPUs available in the cluster without loosing efficiency.
Resumo:
O atual contexto social de aceleração exponencial, resultante de alterações políticas, económicas e do acesso imediato a um extenso conjunto de informações e a um manancial de desenvolvimentos científicos e tecnológicos, cujas implicações são imprevisíveis e transversais a diferentes setores, está em dissonância com as características do modelo escolar dominante e a naturalizada ‘gramática da escola’ (Formosinho & Machado, 2008; Nóvoa, 2009a; Tyack & Tobin, 1994). Este desfasamento, amplificado em países com sistemas de ensino de matriz centralizada, resvala entre uma ação docente acrítica e executora e, em oposição, uma ação docente de natureza profissional, caracterizada por um alinhamento entre o desenvolvimento profissional e a afirmação da especificidade do conhecimento profissional docente, enquanto saber que se constrói na interação com os outros, com o próprio, nos e sobre os contextos de prática. A implementação do processo de reorganização curricular do ensino básico (Decreto-Lei n.º 6/2001, de 18 de janeiro) redefiniu o currículo nacional segundo duas perspetivas: a nacional e a local, veiculando uma conceção curricular flexível e emancipatória, isto é, uma proposta curricular que confere aos professores autonomia no desenvolvimento e gestão do currículo, instigando-os à realização de práticas curriculares com intencionalidade pedagógica estratégica. Neste sentido, a pretensão desta investigação situou-se ao nível da problematização de saberes profissionais e da concetualização de algumas possibilidades de ação tangenciais à capacidade de autotransformação de cada profissional docente e da escola. As opções metodológicas consideradas visaram, sobretudo, compreender quais os possíveis conhecimentos profissionais mobilizados por professores de Ciências Físicas e Naturais, em particular ao nível do desenvolvimento e gestão do currículo desta área curricular. Assim, perspetivado sob a forma de questão enquadradora, o problema que esteve na génese desta investigação assume a seguinte formulação: Que conhecimento mobilizam professores do ensino básico no desenvolvimento e na gestão do currículo das Ciências Físicas e Naturais? De que forma e com que ações poderá ser potenciado esse conhecimento nos processos de ensino e aprendizagem? O estudo empírico que sustentou este projeto de investigação organizou-se em dois momentos distintos. O primeiro, de natureza predominantemente quantitativa e dimensão de análise extensiva, envolveu a administração de um inquérito por questionário a professores de Ciências Físicas e Naturais que, no ano letivo de 2006/2007, se encontravam a lecionar em escolas públicas com 2.º e 3.º ciclos afetas à Direção Regional de Educação do Norte e ao, anteriormente, designado Centro de Área Educativa de Aveiro. Com um enfoque preponderantemente qualitativo, o segundo momento do estudo decorreu ao longo do ano letivo de 2007/2008 num agrupamento de escolas da região norte do país e consistiu na realização de entrevistas a oito professores de Ciências Físicas e Naturais, à coordenadora do departamento de Matemática e Ciências Experimentais e aos presidentes do Conselho Pedagógico e do Conselho Executivo. Ao longo do ano letivo, os professores de Ciências Físicas e Naturais desenvolveram, igualmente, um percurso formativo cuja ênfase se situava ao nível da adequação do desenvolvimento e gestão do currículo desta área disciplinar. As técnicas de tratamento de dados privilegiadas foram a análise estatística e a análise de conteúdo. Os resultados deste estudo apontam para a prevalência de uma ação docente desprovida de intencionalidades pedagógica e curricular ou de integração na construção do corpo geral do saber, designadamente ao nível dos processos de desenvolvimento e gestão do currículo. Não obstante alguma familiarização com conceitos inerentes à dimensão do conhecimento do currículo, os indicadores de reapropriação ao nível da ação docente foram escassos, denunciando a presença de constrangimentos no domínio teórico das orientações curriculares nacionais e locais, bem como no desenvolvimento de práticas curriculares articuladas e estrategicamente definidas. Por outro lado, o predomínio de uma ação docente tendencialmente acrítica, de matriz executora, associada ao cumprimento de normativos legais e de rotinas e burocracias instituídas, indiciou fragilidades ao nível do conhecimento profissional configurado como mobilização complexa, organizada e coerente de conhecimentos científicos, curriculares, pedagógicos e metodológicos, em função da especificidade de cada situação educativa e cuja finalidade é a otimização da aprendizagem do aluno. O percurso formativo afigurou-se como um espaço de partilha e de reflexão colegial, propício ao desenvolvimento de ações que se inserem numa perspetiva de ‘action learning’, possibilitando a reflexão e a aprendizagem através de ações empreendidas em função de práticas educativas. As possibilidades de ação remetem para a integração da formação contínua em contexto, com intencionalidades pedagógicas e curriculares estrategicamente definidas, e a problematização da formação inicial e contínua dos professores, envolvendo as perspetivas de diferentes atores educativos e de investigadores educacionais.
Resumo:
Relatório de estágio de mestrado, Ciências da Educação (Formação de Adultos), Universidade de Lisboa, Instituto de Educação, 2011
Resumo:
Relatório da Prática de Ensino Supervisionada, Mestrado em Ensino de Física e Química no 3º ciclo do Ensino Básico e no Ensino Secundário, Universidade de Lisboa, 2015
Resumo:
This paper deals with the establishment of a characterization methodology of electric power profiles of medium voltage (MV) consumers. The characterization is supported on the data base knowledge discovery process (KDD). Data Mining techniques are used with the purpose of obtaining typical load profiles of MV customers and specific knowledge of their customers’ consumption habits. In order to form the different customers’ classes and to find a set of representative consumption patterns, a hierarchical clustering algorithm and a clustering ensemble combination approach (WEACS) are used. Taking into account the typical consumption profile of the class to which the customers belong, new tariff options were defined and new energy coefficients prices were proposed. Finally, and with the results obtained, the consequences that these will have in the interaction between customer and electric power suppliers are analyzed.
Resumo:
With the current increase of energy resources prices and environmental concerns intelligent load management systems are gaining more and more importance. This paper concerns a SCADA House Intelligent Management (SHIM) system that includes an optimization module using deterministic and genetic algorithm approaches. SHIM undertakes contextual load management based on the characterization of each situation. SHIM considers available generation resources, load demand, supplier/market electricity price, and consumers’ constraints and preferences. The paper focus on the recently developed learning module which is based on artificial neural networks (ANN). The learning module allows the adjustment of users’ profiles along SHIM lifetime. A case study considering a system with fourteen discrete and four variable loads managed by a SHIM system during five consecutive similar weekends is presented.
Resumo:
O trabalho apresentado centra-se na determinação dos custos de construção de condutas de pequenos e médios diâmetros em Polietileno de Alta Densidade (PEAD) para saneamento básico, tendo como base a metodologia descrita no livro Custos de Construção e Exploração – Volume 9 da série Gestão de Sistemas de Saneamento Básico, de Lencastre et al. (1994). Esta metodologia descrita no livro já referenciado, nos procedimentos de gestão de obra, e para tal foram estimados custos unitários de diversos conjuntos de trabalhos. Conforme Lencastre et al (1994), “esses conjuntos são referentes a movimentos de terras, tubagens, acessórios e respetivos órgãos de manobra, pavimentações e estaleiro, estando englobado na parte do estaleiro trabalhos acessórios correspondentes à obra.” Os custos foram obtidos analisando vários orçamentos de obras de saneamento, resultantes de concursos públicos de empreitadas recentemente realizados. Com vista a tornar a utilização desta metodologia numa ferramenta eficaz, foram organizadas folhas de cálculo que possibilitam obter estimativas realistas dos custos de execução de determinada obra em fases anteriores ao desenvolvimento do projeto, designadamente numa fase de preparação do plano diretor de um sistema ou numa fase de elaboração de estudos de viabilidade económico-financeiros, isto é, mesmo antes de existir qualquer pré-dimensionamento dos elementos do sistema. Outra técnica implementada para avaliar os dados de entrada foi a “Análise Robusta de Dados”, Pestana (1992). Esta metodologia permitiu analisar os dados mais detalhadamente antes de se formularem hipóteses para desenvolverem a análise de risco. A ideia principal é o exame bastante flexível dos dados, frequentemente antes mesmo de os comparar a um modelo probabilístico. Assim, e para um largo conjunto de dados, esta técnica possibilitou analisar a disparidade dos valores encontrados para os diversos trabalhos referenciados anteriormente. Com os dados recolhidos, e após o seu tratamento, passou-se à aplicação de uma metodologia de Análise de Risco, através da Simulação de Monte Carlo. Esta análise de risco é feita com recurso a uma ferramenta informática da Palisade, o @Risk, disponível no Departamento de Engenharia Civil. Esta técnica de análise quantitativa de risco permite traduzir a incerteza dos dados de entrada, representada através de distribuições probabilísticas que o software disponibiliza. Assim, para por em prática esta metodologia, recorreu-se às folhas de cálculo que foram realizadas seguindo a abordagem proposta em Lencastre et al (1994). A elaboração e a análise dessas estimativas poderão conduzir à tomada de decisões sobre a viabilidade da ou das obras a realizar, nomeadamente no que diz respeito aos aspetos económicos, permitindo uma análise de decisão fundamentada quanto à realização dos investimentos.
Resumo:
Os requisitos legais impostos ao processo de manutenção das instalações de AVAC em edifícios evoluíram nos últimos 10 anos no sentido de uma crescente exigência, obrigando à existência de planos de manutenção preventiva, livros de ocorrências, inspeções obrigatórias a equipamentos, auditorias ou certi cações energéticas. Para os responsáveis da gestão da manutenção de edifícios, em particular para os que gerem uma quantidade signi cativa de equipamentos e instalações, fazê-lo sem o auxílio de uma ferramenta informática é um desa o considerável. Este trabalho visou a arquitetura de um sistema de gestão da manutenção de edifícios que foi aplicado a um caso real, nomeadamente o campus de Azurém da Universidade do Minho. Foi desenvolvida uma metodologia de inspeção, recolha e tratamento da informação para os sistemas técnicos de AVAC existentes nos edifícios. Esta metodologia foi implementada numa aplicação informática que permite aos técnicos responsáveis pela manutenção uma agilização de tarefas, resultado de um vasto conjunto de informações e de ferramentas desenvolvidas propositadamente, facilmente acessíveis através da rede Wi-Fi universitária. A integração das tarefas de manutenção na aplicação informática permitirá aumentar o grau de e ciência e e cácia nas atividades inerentes à manutenção, aumentando o grau de satisfação dos técnicos envolvidos no processo e dos utentes dos edifícios. O registo das tarefas de manutenção realizadas e dos respetivos custos em bases de dados, tornará também possível a geração de relatórios que sustentarão decisões mais assertivas. A implementação na aplicação informática dos seis módulos estruturais do Sistema de Gestão da Manutenção e Consumos Energéticos, SGMCE, permitirá atingir um nível de gestão da manutenção mais elevado, criando condições para o efetuar o comissionamento. O comissionamento prolonga-se por toda a vida do edifício, permitindo atingir os objetivos designados pelo seu promotor, dentro de patamares de custos de exploração energéticos e de custos optimizados de manutenção.
Resumo:
Atualmente, as Tecnologias de Informação (TI) são cada vez mais vitais dentro das organizações. As TI são o motor de suporte do negócio. Para grande parte das organizações, o funcionamento e desenvolvimento das TI têm como base infraestruturas dedicadas (internas ou externas) denominadas por Centro de Dados (CD). Nestas infraestruturas estão concentrados os equipamentos de processamento e armazenamento de dados de uma organização, por isso, são e serão cada vez mais desafiadas relativamente a diversos fatores tais como a escalabilidade, disponibilidade, tolerância à falha, desempenho, recursos disponíveis ou disponibilizados, segurança, eficiência energética e inevitavelmente os custos associados. Com o aparecimento das tecnologias baseadas em computação em nuvem e virtualização, abrese todo um leque de novas formas de endereçar os desafios anteriormente descritos. Perante este novo paradigma, surgem novas oportunidades de consolidação dos CD que podem representar novos desafios para os gestores de CD. Por isso, é no mínimo irrealista para as organizações simplesmente eliminarem os CD ou transforma-los segundo os mais altos padrões de qualidade. As organizações devem otimizar os seus CD, contudo um projeto eficiente desta natureza, com capacidade para suportar as necessidades impostas pelo mercado, necessidades dos negócios e a velocidade da evolução tecnológica, exigem soluções complexas e dispendiosas tanto para a sua implementação como a sua gestão. É neste âmbito que surge o presente trabalho. Com o objetivo de estudar os CD inicia-se um estudo sobre esta temática, onde é detalhado o seu conceito, evolução histórica, a sua topologia, arquitetura e normas existentes que regem os mesmos. Posteriormente o estudo detalha algumas das principais tendências condicionadoras do futuro dos CD. Explorando o conhecimento teórico resultante do estudo anterior, desenvolve-se uma metodologia de avaliação dos CD baseado em critérios de decisão. O estudo culmina com uma análise sobre uma nova solução tecnológica e a avaliação de três possíveis cenários de implementação: a primeira baseada na manutenção do atual CD; a segunda baseada na implementação da nova solução em outro CD em regime de hosting externo; e finalmente a terceira baseada numa implementação em regime de IaaS.
Resumo:
One of the fundamental problems with image processing of petrographic thin sections is that the appearance (colour I intensity) of a mineral grain will vary with the orientation of the crystal lattice to the preferred direction of the polarizing filters on a petrographic microscope. This makes it very difficult to determine grain boundaries, grain orientation and mineral species from a single captured image. To overcome this problem, the Rotating Polarizer Stage was used to replace the fixed polarizer and analyzer on a standard petrographic microscope. The Rotating Polarizer Stage rotates the polarizers while the thin section remains stationary, allowing for better data gathering possibilities. Instead of capturing a single image of a thin section, six composite data sets are created by rotating the polarizers through 900 (or 1800 if quartz c-axes measurements need to be taken) in both plane and cross polarized light. The composite data sets can be viewed as separate images and consist of the average intensity image, the maximum intensity image, the minimum intensity image, the maximum position image, the minimum position image and the gradient image. The overall strategy used by the image processing system is to gather the composite data sets, determine the grain boundaries using the gradient image, classify the different mineral species present using the minimum and maximum intensity images and then perform measurements of grain shape and, where possible, partial crystallographic orientation using the maximum intensity and maximum position images.
Resumo:
Data centre is a centralized repository,either physical or virtual,for the storage,management and dissemination of data and information organized around a particular body and nerve centre of the present IT revolution.Data centre are expected to serve uniinterruptedly round the year enabling them to perform their functions,it consumes enormous energy in the present scenario.Tremendous growth in the demand from IT Industry made it customary to develop newer technologies for the better operation of data centre.Energy conservation activities in data centre mainly concentrate on the air conditioning system since it is the major mechanical sub-system which consumes considerable share of the total power consumption of the data centre.The data centre energy matrix is best represented by power utilization efficiency(PUE),which is defined as the ratio of the total facility power to the IT equipment power.Its value will be greater than one and a large value of PUE indicates that the sub-systems draw more power from the facility and the performance of the data will be poor from the stand point of energy conservation. PUE values of 1.4 to 1.6 are acievable by proper design and management techniques.Optimizing the air conditioning systems brings enormous opportunity in bringing down the PUE value.The air conditioning system can be optimized by two approaches namely,thermal management and air flow management.thermal management systems are now introduced by some companies but they are highly sophisticated and costly and do not catch much attention in the thumb rules.
Resumo:
This study was materialized to analyze the management issues regarding the seafood processing waste generated including its impact on the coastal community in one of the important seafood hubs of India Aroor Seafood Industrial Belt Alappuzha District Kerala The area has witnessed serious pollution issues related to seafood waste and seldom has any action been implemented by either the polluters or the preventers Further this study is also intended to suggest a low cost eco friendly method for utilizing the bulk quantity of seafood solid waste generated in the area for the promotion of organic farming The high nutritional value of seafood enables the subsequent offal to be considered as an excellent source for plant nutrition The liquid silage accepted worldwide as the cheapest and practical solution for rendering fish waste in bulk for production of livestock feed is adopted in this study to develop foliar fertilizer formulations from various seafood waste The effect of seafood foliar sprays is demonstrated by field studies on two plant varieties such as Okra and Amaranthus
Resumo:
Analysis by reduction is a linguistically motivated method for checking correctness of a sentence. It can be modelled by restarting automata. In this paper we propose a method for learning restarting automata which are strictly locally testable (SLT-R-automata). The method is based on the concept of identification in the limit from positive examples only. Also we characterize the class of languages accepted by SLT-R-automata with respect to the Chomsky hierarchy.
Resumo:
Data mining means to summarize information from large amounts of raw data. It is one of the key technologies in many areas of economy, science, administration and the internet. In this report we introduce an approach for utilizing evolutionary algorithms to breed fuzzy classifier systems. This approach was exercised as part of a structured procedure by the students Achler, Göb and Voigtmann as contribution to the 2006 Data-Mining-Cup contest, yielding encouragingly positive results.
Resumo:
Information display technology is a rapidly growing research and development field. Using state-of-the-art technology, optical resolution can be increased dramatically by organic light-emitting diode - since the light emitting layer is very thin, under 100nm. The main question is what pixel size is achievable technologically? The next generation of display will considers three-dimensional image display. In 2D , one is considering vertical and horizontal resolutions. In 3D or holographic images, there is another dimension – depth. The major requirement is the high resolution horizontal dimension in order to sustain the third dimension using special lenticular glass or barrier masks, separate views for each eye. The high-resolution 3D display offers hundreds of more different views of objects or landscape. OLEDs have potential to be a key technology for information displays in the future. The display technology presented in this work promises to bring into use bright colour 3D flat panel displays in a unique way. Unlike the conventional TFT matrix, OLED displays have constant brightness and colour, independent from the viewing angle i.e. the observer's position in front of the screen. A sandwich (just 0.1 micron thick) of organic thin films between two conductors makes an OLE Display device. These special materials are named electroluminescent organic semi-conductors (or organic photoconductors (OPC )). When electrical current is applied, a bright light is emitted (electrophosphorescence) from the formed Organic Light-Emitting Diode. Usually for OLED an ITO layer is used as a transparent electrode. Such types of displays were the first for volume manufacture and only a few products are available in the market at present. The key challenges that OLED technology faces in the application areas are: producing high-quality white light achieving low manufacturing costs increasing efficiency and lifetime at high brightness. Looking towards the future, by combining OLED with specially constructed surface lenses and proper image management software it will be possible to achieve 3D images.