134 resultados para workstation


Relevância:

10.00% 10.00%

Publicador:

Resumo:

We report on practical experience using the Oxford BSP Library to parallelize a large electromagnetic code, the British Aerospace finite-difference time-domain code EMMA T:FD3D. The Oxford BS Library is one of the first realizations of the Bulk Synchronous Parallel computational model to be targeted at numerically intensive scientific (typically Fortran) computing. The BAe EMMA code is one of the first large-scale applications to be parallelized using this library, and it is an important demonstration of the cost effectiveness of the BSP approach. We illustrate how BSP cost-modelling techniques can be used to predict and optimize performance for single-source programs across different parallel platforms. We provide predicted and observed performance figures for an industrial-strength, single-source parallel code for a variety of real parallel architectures: shared memory multiprocessors, workstation clusters and massively parallel platforms.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Remote sensing airborne hyperspectral data are routinely used for applications including algorithm development for satellite sensors, environmental monitoring and atmospheric studies. Single flight lines of airborne hyperspectral data are often in the region of tens of gigabytes in size. This means that a single aircraft can collect terabytes of remotely sensed hyperspectral data during a single year. Before these data can be used for scientific analyses, they need to be radiometrically calibrated, synchronised with the aircraft's position and attitude and then geocorrected. To enable efficient processing of these large datasets the UK Airborne Research and Survey Facility has recently developed a software suite, the Airborne Processing Library (APL), for processing airborne hyperspectral data acquired from the Specim AISA Eagle and Hawk instruments. The APL toolbox allows users to radiometrically calibrate, geocorrect, reproject and resample airborne data. Each stage of the toolbox outputs data in the common Band Interleaved Lines (BILs) format, which allows its integration with other standard remote sensing software packages. APL was developed to be user-friendly and suitable for use on a workstation PC as well as for the automated processing of the facility; to this end APL can be used under both Windows and Linux environments on a single desktop machine or through a Grid engine. A graphical user interface also exists. In this paper we describe the Airborne Processing Library software, its algorithms and approach. We present example results from using APL with an AISA Eagle sensor and we assess its spatial accuracy using data from multiple flight lines collected during a campaign in 2008 together with in situ surveyed ground control points.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Remote sensing airborne hyperspectral data are routinely used for applications including algorithm development for satellite sensors, environmental monitoring and atmospheric studies. Single flight lines of airborne hyperspectral data are often in the region of tens of gigabytes in size. This means that a single aircraft can collect terabytes of remotely sensed hyperspectral data during a single year. Before these data can be used for scientific analyses, they need to be radiometrically calibrated, synchronised with the aircraft's position and attitude and then geocorrected. To enable efficient processing of these large datasets the UK Airborne Research and Survey Facility has recently developed a software suite, the Airborne Processing Library (APL), for processing airborne hyperspectral data acquired from the Specim AISA Eagle and Hawk instruments. The APL toolbox allows users to radiometrically calibrate, geocorrect, reproject and resample airborne data. Each stage of the toolbox outputs data in the common Band Interleaved Lines (BILs) format, which allows its integration with other standard remote sensing software packages. APL was developed to be user-friendly and suitable for use on a workstation PC as well as for the automated processing of the facility; to this end APL can be used under both Windows and Linux environments on a single desktop machine or through a Grid engine. A graphical user interface also exists. In this paper we describe the Airborne Processing Library software, its algorithms and approach. We present example results from using APL with an AISA Eagle sensor and we assess its spatial accuracy using data from multiple flight lines collected during a campaign in 2008 together with in situ surveyed ground control points.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

An H-file is used to convey information from the inner-region to the outer-region in R-matrix computations. HBrowse is a workstation tool for displaying a graphical abstraction of a local or remote R-matrix H-file. While it is published as a stand-alone tool for post-processing the output from R-matrix inner-region computations it also forms part of the Graphical R-matrix Atomic Collision Environment (GRACE), HBrowse is written in C and OSF/Motif for the UNIX operating system. (C) 2000 Elsevier Science B.V. All rights reserved.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

FastFlow is a structured parallel programming framework targeting shared memory multi-core architectures. In this paper we introduce a FastFlow extension aimed at supporting also a network of multi-core workstations. The extension supports the execution of FastFlow programs by coordinating-in a structured way-the fine grain parallel activities running on a single workstation. We discuss the design and the implementation of this extension presenting preliminary experimental results validating it on state-of-the-art networked multi-core nodes. © 2013 Springer-Verlag.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Copney Stone Circle Complex, Co. Tyrone, N. Ireland, is an important Bronze Age site forming part of the Mid-Ulster Stone Circle Complex. The Environment Service: Historic Monuments and Buildings (ESHMB) initiated a program of bog-clearance in August 1994 to excavate the stone circles. This work was completed by October 1994 and the excavated site was surveyed in August 1995. Almost immediately, the rate at which the stones forming the circles were breaking down was noted and a program of study initiated to make recommendations upon the conservation of this important site. Digital photogrammetric techniques were applied to aerial images of the stone circles and digital terrain models created from the images at a range of scales. These provide base data sets for comparison with identical surveys to be completed in successive years and will allow the rate of deterioration, and the areas most affected, of the circles to be determined. In addition, a 2D analysis of the stones provides an accurate analysis of the absolute 2D dimensions of the stones for rapid desktop computer analysis by researchers remote from the digital photogrammetric workstation used in the survey.

The products of this work are readily incorporated into web sites, educational packages and databases. The technique provides a rapid and user friendly method of presentation of a large body of information and measurements, and a reliable method of storage of the information from Copney should it become necessary to re-cover the site.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Stroke survivors often have upper limb (UL) hemiparesis, limiting their ability to perform activities of daily life (ADLs). Intensive, task-oriented exercise therapy (ET) can improve UL function, but motivation to perform sufficient ET is difficult to maintain. Here we report on a trial in which a workstation was deployed in the homes of chronic stroke survivors to enable tele-coaching of ET in the guise of computer games. Participants performed 6 weeks of 1 hour/day, 5 days/week ET. Hand opening and grasp were assisted with functional electrical stimulation (FES). The primary outcome measure was the Action Research Arm Test (ARAT). Secondary outcome measures included a quantitative test of UL function performed on the workstation, grasp force measurements and transcranial magnetic stimulation (TMS). Improvements were seen in the functional tests, but surprisingly, not in the TMS responses. An important finding was that participants commencing with intermediate functional scores improved the most.

CONCLUSIONS: 1) Daily, tele-supervised FES-ET in chronic stroke survivors is feasible with commercially-available technology. 2) The intervention can significantly improve UL function, particularly in people who start with an intermediate level of function. 3) Significant improvements in UL function can occur in the absence of changes in TMS responses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O veículo guiado automaticamente (AGV) adquirido pelo Departamento de Engenharia Mecânica (DEM) tem vindo a ficar obsoleto devido ao hardware, que nos dias de hoje começa a dar sinais de falhas bem como falta de peças de substituição, e ao software, sendo o PLC (Programmable Logic Controller) usado muito limitado quanto às suas funções de controlo, ficando as principais tarefas de controlo do AGV a cargo de placas eletrónicas de controlo. Para promover o controlo autónomo do AGV, foi decidido retirar toda a parte de hardware que detinha o controlo do mesmo e passou a ser um novo PLC, com maior capacidade de processamento, a executar todo o tipo de controlo necessário ao funcionamento do mesmo. O hardware considerado apenas incluí, de forma resumida, os motores responsáveis pelo movimento e direção, placa de controlo de potência dos motores, placa de interface entre as saídas digitais do PLC e as entradas da placa de controlo de potência dos motores e os demais sensores necessários à deteção de obstáculos, fins de curso da direção, sensores dos postos de trabalho e avisadores de emergência. Todo o controlo de movimento e direção bem como a seleção das ações a executar passou a ficar a cargo do software programado no PLC assim como a interação entre o sistema de supervisão instalado num posto de controlo e o PLC através de comunicação via rádio. O uso do PLC permitiu a flexibilidade de mudar facilmente a forma como as saídas digitais são usadas, ao contrário de um circuito eletrónico que necessita de uma completa remodelação, tempo de testes e implementação para efetuar a mesma função. O uso de um microcontrolador seria igualmente viável para a aplicação em causa, no entanto o uso do PLC tem a vantagem de ser robusto, mais rápido na velocidade de processamento, existência de software de interface de programação bastante intuitivo e de livre acesso, facilidade de alterar a programação localmente ou remotamente, via rádio, acesso a vários protocolos de comunicação robustos como Modbus, Canbus, Profinet, Modnet, etc., e acesso integrado de uma consola gráfica totalmente programável. iv É ainda possível a sua expansão com adição de módulos de entradas e saídas digitais e/ou analógicas permitindo expandir largamente o uso do AGV para outros fins. A solução está a ser amplamente testada e validada no Laboratório de Automação (LabA) do Departamento de Engenharia Mecânica do ISEP (Instituto Superior de Engenharia do Porto), permitindo a otimização dos sistemas de controlo de direção bem como a interatividade entre o PLC e o programa de interface/supervisão do posto de trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Standarização de um posto de trabalho não é mais que definir o melhor método de trabalho que vai ser seguido por todos os operadores que trabalham no mesmo. Uma vez definido esse método, é importante para uma empresa ter noção da produtividade que podem alcançar, dado que pode ser retirado a partir deste método, e é no seguimento disto que surge o estudo dos métodos e tempos, mais concretamente o estudo dos tempos por cronometragem. A aplicação deste estudo foi despoletada pela necessidade do IKEA Industry de Paços de Ferreira, em dar o próximo passo na standarização dos seus postos de trabalho, área a área, e da necessidade de terem uma pessoa em cada área que analisa-se o trabalho que estava a ser feito e calcula-se o tempo de cada rotina. Neste documento, é realizada uma interligação entre os conceitos teóricos que o método exige, como todo o conjunto de fórmulas, restrições, análises e ponderações, com o contexto laboral onde o mesmo foi aplicado e a estratégia desenvolvida pelo IKEA na realização do estudo. O estudo dos métodos e tempos por cronometragem, de todos os métodos existentes, pode ser considerado o mais completo e complexo, uma vez que é mais que observar, registar e retirar uma média ponderada das observações. Este método baseia-se num modelo matemático, que interliga uma série de conceitos e que tem sempre o operador em consideração, seja na avaliação e análise das tarefas que requerem mais esforço dos mesmos, físico ou psicológico, seja em termos de tempos de pausas pessoais que a lei obriga a que as empresas deem. Este detalhe, neste método, é de grande importância, uma vez que a standarização é sempre vista pelos operadores como uma punição. As desvantagens deste método estão no grau de conhecimento e capacidade de observação exigidas ao analista para o executar. Melhor dizendo, um analista que vá executar este trabalho necessita observar muito bem a rotina de trabalho e conhecer onde começa, acaba e tudo o que a ela não pertence, antes de começar a registar seja que tempos forem. Para além disso, é exigido ao analista que perceba o ritmo de trabalho dos operadores através da observação dos mesmos, de modo a que ninguém seja prejudicado. E por fim, é necessária uma grande disponibilidade da parte do analista para retirar o máximo de observações possíveis. Com o intuito de facilitar esta análise, o IKEA Industry criou um ficheiro que compila toda a informação relacionada com o método, e uma explicação de todos os parâmetros que o analista necessita ter em atenção. Esta folha de trabalho foi validada à luz do método, como é possível verificar no decorrer do documento. Um detalhe importante a referir, é que por muito fidedigno que seja este método, tal como qualquer método de standarização, a mínima alteração da rotina de trabalho invalida de imediato o tempo total da rotina, tornando necessário realizar o estudo novamente. Uma vantagem do documento criado pelo IKEA, está na rápida adaptação a estas alterações, uma vez que, caso seja acrescentado ou removido um elemento à rotina, basta alterar o documento, observar e cronometrar os operadores a executar esse novo elemento, e quase automaticamente é definido um novo tempo total padronizado na rotina. Este documento foi criado para fins académicos e de conclusão de um grau académico, mas o estudo quando aplicado na empresa deu origem a contratações, o que só por si mostra as vantagens e impacto que o mesmo pode ter em contexto laboral. Em termos de produtividade, uma vez que a sua aplicação não foi executada a tempo de ser estudada neste documento, não foi possível avaliar a mesma.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMO - A frequente insuficiência de informação e até, eventualmente, a presença de elementos cientificamente pouco robustos (ou mesmo hipotéticos) no procedimento de obtenção dos resultados finais (scores) com os diversos métodos de avaliação do risco, julga-se determinar a obtenção de distintos resultados no mesmo posto de trabalho e que interessam analisar. O presente estudo foi efectuado numa empresa da indústria automóvel e pretendeu contribuir para a efectividade do processo de avaliação do risco destas lesões em meio industrial. Utilizaram-se como ponto de partida as classificações de risco em postos de trabalho onde a aplicação do método OCRA — base do projecto de norma Europeu prEN 1005-5 para a estimativa do risco de LMEMSLT (Lesões Musculoesqueléticas do Membro Superior Ligadas ao Trabalho) — identificou níveis de risco moderados e/ou elevados (score OCRA ≥ 16,5). Assim nos postos de trabalho (n = 71) registou-se em vídeo a actividade de trabalho. Analisaram-se os principais factores de risco (postura, força, repetitividade e exposição a vibrações) com uma amostragem de segundo em segundo e aplicaram-se dois métodos: 1) RULA (McAtamney; Corlett, 1993); 2) SI (Moore; Garg, 1995). Dos resultados globais da aplicação dos métodos identificam- se discrepâncias evidentes: o método SI classificou 41 postos de risco elevado e o método RULA classificou apenas 26 postos de risco. Destaque para as divergências entre os postos classificados de risco elevado como, por exemplo: de entre os 41 postos com scores de risco da aplicação do método SI apenas se encontram 12 postos classificados de risco pelo método RULA. Os resultados permitem evidenciar validades preditivas diversas para os factores de risco analisados: 1) situações de aplicação de força (SI = 0,80; RULA = 0,66); 2) presença de posturas extremas (SI = 0,68; RULA = 0,48); 3) repetitividade (SI = 0,35; RULA = 0,43). Conclui-se pela divergência de resultados dos métodos SI e RULA aplicados nos mesmos postos de trabalho que tal situação alerta para a pertinência da utilização de um filtro que permita a identificação dos factores de risco presentes em cada posto de trabalho e que, por consequência, oriente a selecção do método mais indicado ou ainda, em oposição, do método contra-indicado. Este trabalho, como um contributo para uma efectiva identificação e avaliação do risco de LMEMSLT, conduz, no limite, à necessidade de elaboração de uma «grelha» das «grelhas» e de informação mais precisa sobre os métodos e sua aplicação, permitindo, desse modo, uma mais efectiva gestão do risco destas lesões.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Jatkuvasti lisääntyvä matkapuhelinten käyttäjien määrä, internetin kehittyminen yleiseksi tiedon ja viihteen lähteeksi on luonut tarpeen palvelulle liikkuvan työaseman liittämiseksi tietokoneverkkoihin. GPRS on uusi teknologia, joka tarjoaa olemassa olevia matka- puhelinverkkoja (esim. NMT ja GSM) nopeamman, tehokkaamman ja taloudellisemman liitynnän pakettidataverkkoihin, kuten internettiin ja intranetteihin. Tämän työn tavoitteena oli toteuttaa GPRS:n paketinohjausyksikön (Packet Control Unit, PCU) testauksessa tarvittavat viestintäajurit työasemaympristöön. Aidot matkapuhelinverkot ovat liian kalliita, eikä niistä saa tarvittavasti lokitulostuksia, jotta niitä voisi käyttää GPRS:n testauksessa ohjelmiston kehityksen alkuvaihessa. Tämän takia PCU-ohjelmiston testaus suoritetaan joustavammassa ja helpommin hallittavassa ympäristössä, joka ei aseta kovia reaaliaikavaatimuksia. Uusi toimintaympäristö ja yhteysmedia vaativat PCU:n ja muiden GPRS-verkon yksiköiden välisistä yhteyksistä huolehtivien ohjelman osien, viestintäajurien uuden toteutuksen. Tämän työn tuloksena syntyivät tarvittavien viestintäajurien työasemaversiot. Työssä tarkastellaan eri tiedonsiirtotapoja ja -protokollia testattavan ohjelmiston vaateiden, toteutetun ajurin ja testauksen kannalta. Työssä esitellään kunkin ajurin toteuttama rajapinta ja toteutuksen aste, eli mitkä toiminnot on toteutettu ja mitä on jätetty pois. Ajureiden rakenne ja toiminta selvitetään siltä osin, kuin se on oleellista ohjelman toiminnan kannalta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Several automated reversed-phase HPLC methods have been developed to determine trace concentrations of carbamate pesticides (which are of concern in Ontario environmental samples) in water by utilizing two solid sorbent extraction techniques. One of the methods is known as on-line pre-concentration'. This technique involves passing 100 milliliters of sample water through a 3 cm pre-column, packed with 5 micron ODS sorbent, at flow rates varying from 5-10 mUmin. By the use of a valve apparatus, the HPLC system is then switched to a gradient mobile phase program consisting of acetonitrile and water. The analytes, Propoxur, Carbofuran, Carbaryl, Propham, Captan, Chloropropham, Barban, and Butylate, which are pre-concentrated on the pre-column, are eluted and separated on a 25 cm C-8 analytical column and determined by UV absorption at 220 nm. The total analytical time is 60 minutes, and the pre-column can be used repeatedly for the analysis of as many as thirty samples. The method is highly sensitive as 100 percent of the analytes present in the sample can be injected into the HPLC. No breakthrough of any of the analytes was observed and the minimum detectable concentrations range from 10 to 480 ng/L. The developed method is totally automated for the analysis of one sample. When the above mobile phase is modified with a buffer solution, Aminocarb, Benomyl, and its degradation product, MBC, can also be detected along with the above pesticides with baseline resolution for all of the analytes. The method can also be easily modified to determine Benomyl and MBC both as solute and as particulate matter. By using a commercially available solid phase extraction cartridge, in lieu of a pre-column, for the extraction and concentration of analytes, a completely automated method has been developed with the aid of the Waters Millilab Workstation. Sample water is loaded at 10 mL/min through a cartridge and the concentrated analytes are eluted from the sorbent with acetonitrile. The resulting eluate is blown-down under nitrogen, made up to volume with water, and injected into the HPLC. The total analytical time is 90 minutes. Fifty percent of the analytes present in the sample can be injected into the HPLC, and recoveries for the above eight pesticides ranged from 84 to 93 percent. The minimum detectable concentrations range from 20 to 960 ng/L. The developed method is totally automated for the analysis of up to thirty consecutive samples. The method has proven to be applicable to both purer water samples as well as untreated lake water samples.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Molecular mechanics calculations were done on tetrahedral phosphine oxide zinc complexes in simulated water, benzene and hexane phases using the DREIDING II force field in the BIOGRAF molecular modeling program. The SUN workstation computer (SUN_ 4c, with SPARK station 1 processor) was used for the calculations. Experimental structural information used in the parameterization was obtained from the September 1989 version of the Cambridge Structural Database. 2 Steric and solvation energies were calculated for complexes of the type ZnCl2 (RlO)2' The calculations were done with and without inclusion of electrostatic interactions. More reliable simulation results were obtained without inclusion of charges. In the simulated gas phase, the steric energies increase regularly with number of carbons in the alkyl group, whereas they go through a maximum when solvent shells are included in the calculation. Simulated distribution ratios vary with chain length and type of chain branching and the complexes are found to be more favourable for extraction by benzene than by hexane, in accord with experimental data. Also, in line with what would be expected for a favorable extraction, calculations without electrostatics predict that the complexes are better solvated by the organic solvents than by water.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This project explored self-regulation among children impacted by leaming disabilities. More specifically, this thesis examined whether a remedial literacy program called Reading Rocks! offered by the Leaming Disabilities Association of Niagara Region, provided participating children opportunities to set goals, develop strategies to meet these goals, and provide intemal and extemal feedback- all processes associated with a model of self-regulated leaming as pioneered by Butler and Winne (1995) and Winne and Hadwin (1999). In this thesis, I triangulate the data through the combination of three different methodologies. Firstly, I describe the various elements of the Reading Rocks! program. Secondly, I analyze the data gathered through three semi-structured interviews with three parents of children that participated in the Reading Rocks! program to demonstrate whether the program provides opportunities for children to self-regulate their learning. Thirdly, I also analyze photographic evidence of the motivational workstation boards created by the tutors and children to further illustrate how Reading Rocks! promotes self-regulatory processes among children.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We develop an extension to the tactical planning model (TPM) for a job shop by the third author. The TPM is a discrete-time model in which all transitions occur at the start of each time period. The time period must be defined appropriately in order for the model to be meaningful. Each period must be short enough so that a job is unlikely to travel through more than one station in one period. At the same time, the time period needs to be long enough to justify the assumptions of continuous workflow and Markovian job movements. We build an extension to the TPM that overcomes this restriction of period sizing by permitting production control over shorter time intervals. We achieve this by deriving a continuous-time linear control rule for a single station. We then determine the first two moments of the production level and queue length for the workstation.