893 resultados para software requirements specification
Resumo:
This article is a summary for the general reader, rather than an in-depth review, and attempts to define, as quantitatively as possible, the habitat requirements of salmon and trout and then to relate them to the main ways in which man's activity can influence the survival and growth of these fishes. Frequent text references to an extensive body of published work have been avoided, although a selective bibliography has been included which lists some of the main work upon which the text depends. This article deals only with the freshwater part of the life cycle, and the coverage has some bias towards England and Wales.
Resumo:
[EU]Proiektu honek automobilen antzinako direkzio sistemak ordezkatuko dituen steer-by-wire-ren inplementazioa deskribatuko du, software-aren garapena, hain zuzen. Lan hau garatzeko, ezinbestekoa izango da orain arte egindako lanen bilketa eta azterketa egitea, baita nolako zailtasunak, arriskuak egongo diren eta posiblea izango litzatekeen etorkizun batean teknologia hau instalatzea. Programazio, mekanika eta automatika ezagutzaren bidez teknologia berri hau ordenagailu batean simulatuko da eta orain arte erabili izan diren teknologiekin alderatuko dira, ateratako emaitzekin ondorio nabarmenak ezarriz. Programazio eta simulaziorako “Labview” eta “Matlab-Simulink” software-ak erabiliko dira, beharrezkoak diren tresnen ezagutzak aurretik lortuz.
Resumo:
[EU]Lan honen gaia SCARA errobot motaren mugimendu gaitasunen analisia egitea da, eta ibilbideen sorkuntzarako metodoekin batera software grafiko batean inplementatzea mugimenduaren simulazioa egin ahal izateko. Errobot serieen zinematikaren oinarrizko ezagutzatik hasita, mota konkretu batetara aplikatu egiten da eta honek aurkezten dituen berezitasunak garatu egiten dira, bi helburutara bideratuta: SCARA errobotaren mugimendu gaitasunak ezagutzea. Ibilbideen sorkuntzarako metodo baten inplementazioa. Hasteko, gaiaren egoera aztertu da, aplikazio nagusien eta ibilbide moten informazioa batzeko. Halaber ibilbideen sorkuntzarako metodoak arakatu dira, erabilera honetarako aproposena aurkitzeko. Jarraian, errobotaren analisia burutu da, ohizko erreminta matematikoak erabiliz, funtsezkoak diren lan eremua eta kokapen singularrak lortzeko. Ostean, software grafikoa garatu da mugimendu gaitasun hauek simulatzeko. Ohiko aplikazioetan oinarritutako ibilbideak sortzeko aukerak gehitu dira. Amaitzeko, oztopoak saihesten dituen ibilbideen sorkuntzarako metodoa inplementatu da, “pick and place” ibilbide motaren barruan.
Resumo:
[ES]El objetivo de este proyecto ha sido desarrollar una herramienta software que permita medir el rendimiento de redes con tecnología móvil 4G, también conocida como LTE. Para ello se ha creado un sistema software que está compuesto por una aplicación móvil y un servidor de aplicaciones. El sistema en conjunto realiza la función de recoger indicadores de calidad de la red móvil de diversa índole, que posteriormente son procesados utilizando herramientas software matemáticas, para así obtener gráficas y mapas que permiten analizar la situación y el rendimiento de una red 4G concreta. El desarrollo del software ha llegado a nivel de prototipo y se han realizado pruebas reales con él obteniendo resultados positivos de funcionamiento.
Resumo:
When dissolved in water, compounds of nitrogen and phosphorus ought to contain the basic assimilated food requirements for autotrophic plants and therefore autotrophic algae. This article summarises the occurrence of nitrogen in water, how species of algae utilize nitrogen and phosphorus forms for growth and the capacities of algae to adapt to environments of different nutrient wealth. This topic has unquestionable importance not only for the purpose of survival of a species but also in deciding indirectly about the stability of ecosystems.
Resumo:
STEEL, the Caltech created nonlinear large displacement analysis software, is currently used by a large number of researchers at Caltech. However, due to its complexity, lack of visualization tools (such as pre- and post-processing capabilities) rapid creation and analysis of models using this software was difficult. SteelConverter was created as a means to facilitate model creation through the use of the industry standard finite element solver ETABS. This software allows users to create models in ETABS and intelligently convert model information such as geometry, loading, releases, fixity, etc., into a format that STEEL understands. Models that would take several days to create and verify now take several hours or less. The productivity of the researcher as well as the level of confidence in the model being analyzed is greatly increased.
It has always been a major goal of Caltech to spread the knowledge created here to other universities. However, due to the complexity of STEEL it was difficult for researchers or engineers from other universities to conduct analyses. While SteelConverter did help researchers at Caltech improve their research, sending SteelConverter and its documentation to other universities was less than ideal. Issues of version control, individual computer requirements, and the difficulty of releasing updates made a more centralized solution preferred. This is where the idea for Caltech VirtualShaker was born. Through the creation of a centralized website where users could log in, submit, analyze, and process models in the cloud, all of the major concerns associated with the utilization of SteelConverter were eliminated. Caltech VirtualShaker allows users to create profiles where defaults associated with their most commonly run models are saved, and allows them to submit multiple jobs to an online virtual server to be analyzed and post-processed. The creation of this website not only allowed for more rapid distribution of this tool, but also created a means for engineers and researchers with no access to powerful computer clusters to run computationally intensive analyses without the excessive cost of building and maintaining a computer cluster.
In order to increase confidence in the use of STEEL as an analysis system, as well as verify the conversion tools, a series of comparisons were done between STEEL and ETABS. Six models of increasing complexity, ranging from a cantilever column to a twenty-story moment frame, were analyzed to determine the ability of STEEL to accurately calculate basic model properties such as elastic stiffness and damping through a free vibration analysis as well as more complex structural properties such as overall structural capacity through a pushover analysis. These analyses showed a very strong agreement between the two softwares on every aspect of each analysis. However, these analyses also showed the ability of the STEEL analysis algorithm to converge at significantly larger drifts than ETABS when using the more computationally expensive and structurally realistic fiber hinges. Following the ETABS analysis, it was decided to repeat the comparisons in a software more capable of conducting highly nonlinear analysis, called Perform. These analyses again showed a very strong agreement between the two softwares in every aspect of each analysis through instability. However, due to some limitations in Perform, free vibration analyses for the three story one bay chevron brace frame, two bay chevron brace frame, and twenty story moment frame could not be conducted. With the current trend towards ultimate capacity analysis, the ability to use fiber based models allows engineers to gain a better understanding of a building’s behavior under these extreme load scenarios.
Following this, a final study was done on Hall’s U20 structure [1] where the structure was analyzed in all three softwares and their results compared. The pushover curves from each software were compared and the differences caused by variations in software implementation explained. From this, conclusions can be drawn on the effectiveness of each analysis tool when attempting to analyze structures through the point of geometric instability. The analyses show that while ETABS was capable of accurately determining the elastic stiffness of the model, following the onset of inelastic behavior the analysis tool failed to converge. However, for the small number of time steps the ETABS analysis was converging, its results exactly matched those of STEEL, leading to the conclusion that ETABS is not an appropriate analysis package for analyzing a structure through the point of collapse when using fiber elements throughout the model. The analyses also showed that while Perform was capable of calculating the response of the structure accurately, restrictions in the material model resulted in a pushover curve that did not match that of STEEL exactly, particularly post collapse. However, such problems could be alleviated by choosing a more simplistic material model.
Resumo:
O cálculo de dispersão de plumas é uma ferramenta empregada para se estimar o alcance dos poluentes emitidos por uma chaminé nas suas redondezas. É empregada nos países desenvolvidos há alguns anos e recentemente vem sendo exigida pelas agências ambientais brasileiras como um dos requisitos para concessão das licenças de operação. Baseia-se em um cálculo gaussiano, onde os dados de entrada são as taxas de emissão, os dados físicos da chaminé, dados meteorológicos e topográficos. Como é uma técnica recente no Brasil, este trabalho se propõe a fazer uma descrição da metodologia e suas etapas, indicando quais são os dados mais relevantes e quais simplificações podem ser feitas. O estudo de caso foi realizado nas instalações das Indústrias Nucleares do Brasil (INB). Os resultados indicaram que a influência de edificações adjacentes à fonte emissora é um dos parâmetros mais importantes, seguido da influência do relevo da região. Foi também realizada uma comparação entre os dois softwares comerciais existentes, o ISCST3, de maior complexidade, e o SCREEN mais simplificado, e indicou que o SCREEN pode ser usado como uma ferramenta de avaliação inicial, quando todos os dados de entrada necessários para se usar o ISCST3 não estão disponíveis
Resumo:
A review article detailing the background, development and functionality of the Windermere Profiler, a multi parameter environmental monitoring instrument for use in lakes, reservoirs and rivers. The article explains the requirement for regular data collection by the Freshwater Biological Association at Windermere. The article covers the requirements of a profiling instrument, the design considerations, the electronic circuitry, the computer program, the operation of the computer software, the profiler in use and further developments to the design. A number of figures and images accompany the article.
Resumo:
A review article looking at the type of information requirements commonly shared by scientists and their use of traditional information services. Areas covered include primary requirements of IFE (Institute of Freshwater Ecology) staff, pure versus applied research, informal and personal sources of information, and traditional library and information services. It goes on to describe how research into information systems and technology may improve the wider accessibility and use of information to the scientific community. Technologies covered include online databases, telecommunications, gateways, expert systems, optical technology and applications of CDROM.
Resumo:
No mês de outubro de 2007 a Comissão Nacional de Cartografia (CONCAR) lançou uma norma cartográfica composta de especificações técnicas para Estruturação de Dados Geoespaciais Digitais Vetoriais (EDGV) para a realização do mapeamento topográfico sistemático no Brasil. No mês de novembro de 2008 foi publicado o Decreto n 6666, que institui a Infra-Estrutura Nacional de Dados Espaciais e ratifica o uso das normas homologadas pela CONCAR, pelas instituições Federais. Este trabalho realiza dois requisitos, a saber: (a) fornece um esquema relacional alinhado as especificações da EDGV e (b) implementa um protótipo, com vistas a sua utilização no processo de restituição fotogramétrica nas instituições públicas responsáveis pelo mapeamento topográfico no Brasil. A implementação é realizada em ambiente de software livre. Também é importante salientar o caráter educacional da plataforma de software a ser implementada, para que o seu uso seja também direcionado para o ensino teórico e prático da fotogrametria digital nas instituições de ensino e pesquisa.
Resumo:
Diferentes organizações públicas e privadas coletam e disponibilizam uma massa de dados sobre a realidade sócio-econômica das diferentes nações. Há hoje, da parte do governo brasileiro, um interesse manifesto de divulgar uma gama diferenciada de informações para os mais diversos perfis de usuários. Persiste, contudo, uma série de limitações para uma divulgação mais massiva e democrática, entre elas, a heterogeneidade das fontes de dados, sua dispersão e formato de apresentação pouco amigável. Devido à complexidade inerente à informação geográfica envolvida, que produz incompatibilidade em vários níveis, o intercâmbio de dados em sistemas de informação geográfica não é problema trivial. Para aplicações desenvolvidas para a Web, uma solução são os Web Services que permitem que novas aplicações possam interagir com aquelas que já existem e que sistemas desenvolvidos em plataformas diferentes sejam compatíveis. Neste sentido, o objetivo do trabalho é mostrar as possibilidades de construção de portais usando software livre, a tecnologia dos Web Services e os padrões do Open Geospatial Consortium (OGC) para a disseminação de dados espaciais. Visando avaliar e testar as tecnologias selecionadas e comprovar sua efetividade foi desenvolvido um exemplo de portal de dados sócio-econômicos, compreendendo informações de um servidor local e de servidores remotos. As contribuições do trabalho são a disponibilização de mapas dinâmicos, a geração de mapas através da composição de mapas disponibilizados em servidores remotos e local e o uso do padrão OGC WMC. Analisando o protótipo de portal construído, verifica-se, contudo, que a localização e requisição de Web Services não são tarefas fáceis para um usuário típico da Internet. Nesta direção, os trabalhos futuros no domínio dos portais de informação geográfica poderiam adotar a tecnologia Representational State Transfer (REST).
Resumo:
Nesta dissertação foi desenvolvido o sistema SAQUA (Sistema para Análise da Qualidade das Águas Fluviais), que permite o acompanhamento dos dados de séries históricas de parâmetros físico-químicos para análise da qualidade de águas fluviais. A alimentação do sistema SAQUA se dá a partir do arquivo tipo texto gerado no Hidroweb, sistema de banco de dados hidrológicos da ANA (Agência Nacional de Águas), disponibilizado na internet. O SAQUA constitui uma interface que permite a análise espaço-temporal de parâmetros de qualidade da água específicos definidos pelo usuário. A interface foi construída utilizando o servidor de mapas Mapserver, as linguagens HTML e PHP, além de consultas SQL e o uso do servidor Web Apache. A utilização de uma linguagem dinâmica como o PHP permitiu usar recursos internos do Mapserver por meio de funções que interagem de forma mais flexível com códigos presentes e futuros, além de interagir com o código HTML. O Sistema apresenta como resultado a representação gráfica da série histórica por parâmetro e, em mapa, a localização das estações em análise também definidas pelo usuário, geralmente associadas a uma determinada região hidrográfica. Tanto na representação gráfica da série temporal quanto em mapa, são destacados a partir de código de cores a estação de monitoramento e a observação em que os limites estabelecidos na resolução CONAMA 357/05 não foi atendido. A classe de uso da resolução CONAMA que será usada na análise também pode ser definida pelo usuário. Como caso de estudo e demonstração das funções do SAQUA foi escolhida a bacia hidrográfica do rio Paraíba do Sul, localizada na região hidrográfica Atlântico Sudeste do Brasil. A aplicação do sistema demonstrou ótimos resultados e o potencial da ferramenta computacional como apoio ao planejamento e à gestão dos recursos hídricos. Ressalta-se ainda, que todo o sistema foi desenvolvido a partir de softwares disponibilizados segundo a licença GPL de software livre, ou seja, sem custo na aquisição de licenças, demonstrando o potencial da aplicação destas ferramentas no campo dos recursos hídricos.
Resumo:
This thesis presents methods for incrementally constructing controllers in the presence of uncertainty and nonlinear dynamics. The basic setting is motion planning subject to temporal logic specifications. Broadly, two categories of problems are treated. The first is reactive formal synthesis when so-called discrete abstractions are available. The fragment of linear-time temporal logic (LTL) known as GR(1) is used to express assumptions about an adversarial environment and requirements of the controller. Two problems of changes to a specification are posed that concern the two major aspects of GR(1): safety and liveness. Algorithms providing incremental updates to strategies are presented as solutions. In support of these, an annotation of strategies is developed that facilitates repeated modifications. A variety of properties are proven about it, including necessity of existence and sufficiency for a strategy to be winning. The second category of problems considered is non-reactive (open-loop) synthesis in the absence of a discrete abstraction. Instead, the presented stochastic optimization methods directly construct a control input sequence that achieves low cost and satisfies a LTL formula. Several relaxations are considered as heuristics to address the rarity of sampling trajectories that satisfy an LTL formula and demonstrated to improve convergence rates for Dubins car and single-integrators subject to a recurrence task.