300 resultados para SQL verktyg
Resumo:
Presentado en las Jornadas sobre "El humor (y los humores) en el mundo antiguo", organizado por el Departamento de Estudios Clásicos y el Instituto de Ciencias de la Antigüedad de la UPV y celebrado en Vitoria-Gasteiz los días 16 y 17 de octubre de 2007.
Resumo:
Presentado en las Jornadas sobre "El humor (y los humores) en el mundo antiguo", organizado por el Departamento de Estudios Clásicos y el Instituto de Ciencias de la Antigüedad de la UPV y celebrado en Vitoria-Gasteiz los días 16 y 17 de octubre de 2007.
Resumo:
In the quest to develop viable designs for third-generation optical interferometric gravitational-wave detectors, one strategy is to monitor the relative momentum or speed of the test-mass mirrors, rather than monitoring their relative position. The most straightforward design for a speed-meter interferometer that accomplishes this is described and analyzed in Chapter 2. This design (due to Braginsky, Gorodetsky, Khalili, and Thorne) is analogous to a microwave-cavity speed meter conceived by Braginsky and Khalili. A mathematical mapping between the microwave speed meter and the optical interferometric speed meter is developed and used to show (in accord with the speed being a quantum nondemolition observable) that in principle the interferometric speed meter can beat the gravitational-wave standard quantum limit (SQL) by an arbitrarily large amount, over an arbitrarily wide range of frequencies . However, in practice, to reach or beat the SQL, this specific speed meter requires exorbitantly high input light power. The physical reason for this is explored, along with other issues such as constraints on performance due to optical dissipation.
Chapter 3 proposes a more sophisticated version of a speed meter. This new design requires only a modest input power and appears to be a fully practical candidate for third-generation LIGO. It can beat the SQL (the approximate sensitivity of second-generation LIGO interferometers) over a broad range of frequencies (~ 10 to 100 Hz in practice) by a factor h/hSQL ~ √W^(SQL)_(circ)/Wcirc. Here Wcirc is the light power circulating in the interferometer arms and WSQL ≃ 800 kW is the circulating power required to beat the SQL at 100 Hz (the LIGO-II power). If squeezed vacuum (with a power-squeeze factor e-2R) is injected into the interferometer's output port, the SQL can be beat with a much reduced laser power: h/hSQL ~ √W^(SQL)_(circ)/Wcirce-2R. For realistic parameters (e-2R ≃ 10 and Wcirc ≃ 800 to 2000 kW), the SQL can be beat by a factor ~ 3 to 4 from 10 to 100 Hz. [However, as the power increases in these expressions, the speed meter becomes more narrow band; additional power and re-optimization of some parameters are required to maintain the wide band.] By performing frequency-dependent homodyne detection on the output (with the aid of two kilometer-scale filter cavities), one can markedly improve the interferometer's sensitivity at frequencies above 100 Hz.
Chapters 2 and 3 are part of an ongoing effort to develop a practical variant of an interferometric speed meter and to combine the speed meter concept with other ideas to yield a promising third- generation interferometric gravitational-wave detector that entails low laser power.
Chapter 4 is a contribution to the foundations for analyzing sources of gravitational waves for LIGO. Specifically, it presents an analysis of the tidal work done on a self-gravitating body (e.g., a neutron star or black hole) in an external tidal field (e.g., that of a binary companion). The change in the mass-energy of the body as a result of the tidal work, or "tidal heating," is analyzed using the Landau-Lifshitz pseudotensor and the local asymptotic rest frame of the body. It is shown that the work done on the body is gauge invariant, while the body-tidal-field interaction energy contained within the body's local asymptotic rest frame is gauge dependent. This is analogous to Newtonian theory, where the interaction energy is shown to depend on how one localizes gravitational energy, but the work done on the body is independent of that localization. These conclusions play a role in analyses, by others, of the dynamics and stability of the inspiraling neutron-star binaries whose gravitational waves are likely to be seen and studied by LIGO.
Resumo:
Nesta dissertação foi desenvolvido o sistema SAQUA (Sistema para Análise da Qualidade das Águas Fluviais), que permite o acompanhamento dos dados de séries históricas de parâmetros físico-químicos para análise da qualidade de águas fluviais. A alimentação do sistema SAQUA se dá a partir do arquivo tipo texto gerado no Hidroweb, sistema de banco de dados hidrológicos da ANA (Agência Nacional de Águas), disponibilizado na internet. O SAQUA constitui uma interface que permite a análise espaço-temporal de parâmetros de qualidade da água específicos definidos pelo usuário. A interface foi construída utilizando o servidor de mapas Mapserver, as linguagens HTML e PHP, além de consultas SQL e o uso do servidor Web Apache. A utilização de uma linguagem dinâmica como o PHP permitiu usar recursos internos do Mapserver por meio de funções que interagem de forma mais flexível com códigos presentes e futuros, além de interagir com o código HTML. O Sistema apresenta como resultado a representação gráfica da série histórica por parâmetro e, em mapa, a localização das estações em análise também definidas pelo usuário, geralmente associadas a uma determinada região hidrográfica. Tanto na representação gráfica da série temporal quanto em mapa, são destacados a partir de código de cores a estação de monitoramento e a observação em que os limites estabelecidos na resolução CONAMA 357/05 não foi atendido. A classe de uso da resolução CONAMA que será usada na análise também pode ser definida pelo usuário. Como caso de estudo e demonstração das funções do SAQUA foi escolhida a bacia hidrográfica do rio Paraíba do Sul, localizada na região hidrográfica Atlântico Sudeste do Brasil. A aplicação do sistema demonstrou ótimos resultados e o potencial da ferramenta computacional como apoio ao planejamento e à gestão dos recursos hídricos. Ressalta-se ainda, que todo o sistema foi desenvolvido a partir de softwares disponibilizados segundo a licença GPL de software livre, ou seja, sem custo na aquisição de licenças, demonstrando o potencial da aplicação destas ferramentas no campo dos recursos hídricos.
Resumo:
La primera idea de la realización de este proyecto, fue concebida por la necesidad de tener un sistema por el cual se pudieran cambiar datos de una aplicación, en un sistema móvil, a través de una página web. Sin embargo al conocer la potencia que tiene RDF para ser muy escalable terminó siendo un sistema de gestión de contenido general en RDF. Este sistema de gestión se ha realizado para ser lo más simple posible para un usuario, de tal manera que con solo 2 click en la página web y rellenando un formulario simple, pudiera tener una base de datos sin muchos conocimientos sobre la gestión de las mismas. Aunque claramente no es un sistema potente como si fuera una base de datos en Oracle, por citar un ejemplo, sirve para poder agregar, modificar y eliminar datos con sencillez. Así este sistema de gestión da una posibilidad muy sencilla de realizar tus propias bases de datos. Además aunque tiene un motor SQL para la gestión interna de almacenamiento, la salida de los datos es en RDF/XML con lo que podría ser compatible con un sistema más amplio como Oracle Database Semantic Technologies. Este CMS también tendrá un sistema de seguridad basado en usuario y contraseña. Para que la edición del contenido sea accesible solo a usuarios con acceso, mientras que la exportación de los datos será pública, y podrá ser accesible por cualquier usuario mediante una URI.
Resumo:
A segmentação dos nomes nas suas partes constitutivas é uma etapa fundamental no processo de integração de bases de dados por meio das técnicas de vinculação de registros. Esta separação dos nomes pode ser realizada de diferentes maneiras. Este estudo teve como objetivo avaliar a utilização do Modelo Escondido de Markov (HMM) na segmentação nomes e endereços de pessoas e a eficiência desta segmentação no processo de vinculação de registros. Foram utilizadas as bases do Sistema de Informações sobre Mortalidade (SIM) e do Subsistema de Informação de Procedimentos de Alta Complexidade (APAC) do estado do Rio de Janeiro no período entre 1999 a 2004. Uma metodologia foi proposta para a segmentação de nome e endereço sendo composta por oito fases, utilizando rotinas implementadas em PL/SQL e a biblioteca JAHMM, implementação na linguagem Java de algoritmos de HMM. Uma amostra aleatória de 100 registros de cada base foi utilizada para verificar a correção do processo de segmentação por meio do modelo HMM.Para verificar o efeito da segmentação do nome por meio do HMM, três processos de vinculação foram aplicados sobre uma amostra das duas bases citadas acima, cada um deles utilizando diferentes estratégias de segmentação, a saber: 1) divisão dos nomes pela primeira parte, última parte e iniciais do nome do meio; 2) divisão do nome em cinco partes; (3) segmentação segundo o HMM. A aplicação do modelo HMM como mecanismo de segmentação obteve boa concordância quando comparado com o observador humano. As diferentes estratégias de segmentação geraram resultados bastante similares na vinculação de registros, tendo a estratégia 1 obtido um desempenho pouco melhor que as demais. Este estudo sugere que a segmentação de nomes brasileiros por meio do modelo escondido de Markov não é mais eficaz do que métodos tradicionais de segmentação.
Resumo:
The primary objective of this project, “the Assessment of Existing Information on Atlantic Coastal Fish Habitat”, is to inform conservation planning for the Atlantic Coastal Fish Habitat Partnership (ACFHP). ACFHP is recognized as a Partnership by the National Fish Habitat Action Plan (NFHAP), whose overall mission is to protect, restore, and enhance the nation’s fish and aquatic communities through partnerships that foster fish habitat conservation. This project is a cooperative effort of NOAA/NOS Center for Coastal Monitoring and Assessment (CCMA) Biogeography Branch and ACFHP. The Assessment includes three components; 1. a representative bibliographic and assessment database, 2. a Geographical Information System (GIS) spatial framework, and 3. a summary document with description of methods, analyses of habitat assessment information, and recommendations for further work. The spatial bibliography was created by linking the bibliographic table developed in Microsoft Excel and exported to SQL Server, with the spatial framework developed in ArcGIS and exported to GoogleMaps. The bibliography is a comprehensive, searchable database of over 500 selected documents and data sources on Atlantic coastal fish species and habitats. Key information captured for each entry includes basic bibliographic data, spatial footprint (e.g. waterbody or watershed), species and habitats covered, and electronic availability. Information on habitat condition indicators, threats, and conservation recommendations are extracted from each entry and recorded in a separate linked table. The spatial framework is a functional digital map based on polygon layers of watersheds, estuarine and marine waterbodies derived from NOAA’s Coastal Assessment Framework, MMS/NOAA’s Multipurpose Marine Cadastre, and other sources, providing spatial reference for all of the documents cited in the bibliography. Together, the bibliography and assessment tables and their spatial framework provide a powerful tool to query and assess available information through a publicly available web interface. They were designed to support the development of priorities for ACFHP’s conservation efforts within a geographic area extending from Maine to Florida, and from coastal watersheds seaward to the edge of the continental shelf. The Atlantic Coastal Fish Habitat Partnership has made initial use of the Assessment of Existing Information. Though it has not yet applied the AEI in a systematic or structured manner, it expects to find further uses as the draft conservation strategic plan is refined, and as regional action plans are developed. It also provides a means to move beyond an “assessment of existing information” towards an “assessment of fish habitat”, and is being applied towards the National Fish Habitat Action Plan (NFHAP) 2010 Assessment. Beyond the scope of the current project, there may be application to broader initiatives such as Integrated Ecosystem Assessments (IEAs), Ecosystem Based Management (EBM), and Marine Spatial Planning (MSP).
Resumo:
中国计算机学会
Resumo:
ETL过程是一个从分布数据源(包括数据库、应用系统、文件系统等)抽取数据,进行转换、集成和传输,并最终加载到目标系统的过程。传统的ETL过程主要服务于数据仓库(Data Warehouse),属于企业决策支持系统的一部分。随着数据集成技术的发展和轻量级的数据集成中间件的出现,ETL过程广泛应用于企业数据集成与数据交换系统。在ETL过程中,数据质量控制是一个极为重要的基本组件和功能,它对集成中的数据进行检测、转换、清洗,以防止“脏”数据进入目标系统。在ETL过程中如果缺少对数据质量的有效控制,就会导致数据集成项目无法圆满实现目标或彻底失败。 针对ETL过程中存在的数据质量问题,设计并实现面向ETL过程的数据质量控制系统,是本文研究的重点。论文通过对ETL过程中各阶段可能产生的数据质量问题进行了分类,并对质量控制需求建模,提出一个面向ETL过程的数据质量控制框架,该框架通过对源端数据的分析来指导ETL的设计,通过灵活、可配置、可扩展的数据处理机制实现数据的过滤、转换与清洗,并支持对数据质量处理全过程进行监控。在该框架基础上,论文特别在灵活的数据处理机制、数据分析、数据过滤和数据清洗四个方面进行了探讨。在数据处理机制方面,提出了基于插件元模型的数据处理机制,该机制可以满足用户对数据过滤、数据转换与数据清洗等功能的各种定制需求,并具有较强的可扩展性;在数据分析方面,根据字段类型对数据进行分类统计,并针对大数据量统计分析问题,提出了可自动配置的不同数据统计策略;在数据过滤方面,通过将抽取数据的SQL语句重写的方式,过滤不满足完整性约束的元组;在数据清洗方法方面给出了一种利用统计信息动态确定属性相似度权重的方法,对基于字段的相似记录检测算法的领域无关算法进行了改进,提高了数据检测的准确性。在上述工作基础上,在数据集成中间件OnceDI中设计并实现了数据质量控制系统,并在设计中通过设计模式的应用增强系统的可扩展性。
Resumo:
“最终用户开发(End-User Development,EUD)”研究如何使作为非专业软件开发者的软件系统用户,在一定程度上开发或修改软件。EUD的研究主要有三类,即EUD的理论研究、通用的EUD技术研究和面向领域的EUD技术研究。作为一个面向领域的EUD研究,本文以电子政务中常见的表格数据分析问题为背景,研究表格数据分析的EUD方法和技术。 表格数据分析是一种广泛存在的日常应用问题,除了各种业务系统中的表格分析系统,工业界也引入了EUD,比如“电子表格(Spreadsheet)”,但无论专用分析系统,还是Spreadsheet,都不足以应对表格数据分析问题在规模和复杂度方面的迅速增长。 本文在对表格数据分析问题进行建模的基础上,提出一种基于EUD的表格数据分析方法(Methodology of EUD-Enabled Tabular-data Analysis,META),并就META方法的应用和所需的关键支撑技术开展了研究,其贡献包括以下七个方面: 1)在Spreadsheet模型的基础上,对大规模表格数据分析问题进行了建模,该模型以数据层、逻辑层和表示层的分离为特征,对表格数据、表格展示和表格数据分析计算的表达能力,都超过已有的各种模型。 2)提出一种以EUD为核心的表格数据分析方法(META),该方法有三种应用模式,分别适用于不同的用户熟练程度和需求复杂度,既适用于简单的表格数据生成问题,也能支持复杂的EUD生命周期过程。 3)在对表格数据分析问题进行建模的基础上,通过扩展传统Spreadsheet语言,设计了一种支持最终用户开发的表格数据分析语言ESL(EUD-Enabled Spreadsheet Language),该语言继承了Spreadsheet语言的最终用户可编程性,同时,在表格数据分析方面的表达能力优于已有的其他语言。 4)在将ESL公式依赖关系建模的基础上,深入研究了影响Spreadsheet计算性能的各种因素。提出了基于拓扑排序的重算消减算法,解决了传统算法中存在的重算问题;以拓扑排序算法为基础,提出了ESL语言的并行计算方法;针对大规模表格数据访问,实现了能够显著降低SQL数据访问代价的缓存机制。这些研究,经实验验证,提高了ESL语言的执行效率。 5)为降低EUD中SQL编程的复杂度,通过引入领域语义和上下文(Context)配置的方法,解决了SQL自动生成中连接选择的二义性问题,实现了精确查询的SQL自动生成。其结果也可用于其他访问关系数据库的EUD系统。 6)有效性是ESL编程中的重要问题,由于缺乏合适的研究对象和用户群体,EUD有效性研究受到限制。在社会关系网络上开发Web插件,是一种典型的EUD活动,其中的“发行前错误”问题是一种重要的风险来源。本文提出的Release-Waiting Farm(RWF)技术,能够有效地引导最终用户对Web插件进行测试,并规范最终用户的开发过程。 7)本文总结了RWF技术在社会关系网络中得以成功的关键因素,基于RWF技术,为META方法设计了支持最终用户开发的协作环境和测试环境,并在全国组织系统软件框架开发项目中进行了实现和验证。
Resumo:
落叶松毛虫是东北林区主要害虫之一,它对松林可以造成毁灭性的破坏,因此,采取及时且必要的综合防治措施,可以带来显著的经济和生态效益。本文依据害虫综合管理的指导思想,采用计算机人工智能程序模型,构建了落叶松毛虫防治咨询专家系统。 落叶松毛虫防治咨询专家系统主要由推理机、知识库、数据库、知识获取机制和用户界面等部分组成。其中知识库和推理机是系统的核心部分。在知识库设计中充分考虑了落叶松毛虫防治的复杂性,结合具体的限定条件,如危害特征、自然环境、地形地貌、害虫的生长阶段等,将知识存储在数据库中形成专家数据库;利用数据库查询语言SQL语句设计了系统的推理机,采用正向推理的方式,增强了知识库的可扩展性和可维护性;知识获取机制面向林业专家,实现知识的获取以及知识库的修改、扩充等任务;数据库用来存放落叶松毛虫的基本信息,用户可以通过数据库来获得落叶松毛虫相应的咨询信息。 落叶松毛虫防治咨询专家系统的目标为:(1)对落叶松毛虫的基本信息、行为特征、生理和生态学特征以及防治方法和施药方法等进行存储和查询。(2)正向推理方式保证专家系统在运行时能方便地选择问题,实现智能推理过程。(3)易用的知识维护。 该系统主要有以下几方面的功能和特点:(1)该系统本着害虫综合管理的指导思想,以落叶松毛虫的种群动态为理论基础,充分考虑不同林地环境条件下的自然控制因素,根据环境、气候和害虫本身的条件推出更加合理的结论,尽量采用生物防治,必要时采用化学防治;(2)系统可向用户提供多种可行的防治方案,经营者可以根据当时当地的实际情况作出决定;(3)系统使用方便;(4)系统具有显示、打印、通过Internet浏览获取信息、显示推理解释等功能。 另外,本文对落叶松毛虫专家系统又进行了有效的评估,评估对象分为三个组别:领域专家、森保人员以及学生。三组人员分别针对系统实用性、友好性、系统提问的简洁程度以及可学习性给出等级分数。通过评估结果,最终认定该系统是可以信赖的。 本系统以落叶松毛虫防治领域专家的经验和知识为基础,有效地将计算机技术和森保专家的知识结合在一起,集落叶松毛虫信息存储浏览、查询、专家系统于一体,对于缓解森林保护专家和人员的不足,提高落叶松毛虫虫害的防治能力,加快科技成果的转化具有重要的意义。
Resumo:
介绍了如何利用ADO(ActiveX Data Object)接口连接和操作不同的数据库。并给出了在Visual C++.net环境下ADO结合SQL访问数据库的程序代码。
Resumo:
HIRFL(兰州重离子加速器)是我国第一个大型重离子物理研究装置。HIRFL控制系统是保证HIRFL系统正常高效运转的重要环节。本文利用数据库技术、网络技术设计了HIRFL控制系统数据库系统,实现了在网络环境中只使用一个应用程序就可对整个HIRFL系统控制进行控制的要求。论文首先介绍了数据库系统理论,然后对软件设计涉及的各部分基础知识进行了阐述,最后详细讨论了整个数据库系统设计中的数据库设计、应用程序人机界面设计等部分。数据库应用SQL Server 2000大型数据库,并使用ODBC技术作为数据库访问手段;人机界面部分使用面向对象编程技术进行Windows编程。整个论文工作在建立了一个包含整个控制系统各部分设备信息的数据库的同时,还提供了一套包含所有基本控制功能的HIRFL分布式控制软件,为HIRPL控制系统数据库系统的进一步完善提供了二次开发平台。
Resumo:
空间数据管理和维护技术是卫星数据应用系统的关键技术之一,对于推动卫星数据应用的发展有不可或缺的重要意义。本文在分析数据管理的各种先进技术的基础上,设计了卫星地面应用系统中的数据管理维护解决方案;讨论了该解决方案的具体设计实现。主要工作有:一、 系统架构:本文设计了层次式的系统架构,将系统从上到下分为数据应用层、数据访问接口层、逻辑数据层、物理数据层等,并对各层之间的功能和之间的交互做了明确定义。二、 数据统一访问:本文设计了数据访问接口层,向下层负责操作逻辑数据,向上层用户提供一个易用的统一的数据访问接口。该接口层屏蔽了底层数据格式和存储等差异,支持数据的统一存取,提供透明的数据访问,降低了系统之间的耦合度。三、 数据操作实现:本文基于XML设计了数据用户和数据管理维护系统之间数据交换的格式。在数据访问接口层实现了从XML格式请求到SQL语句(或文件API调用)的转换逻辑以实现各种数据操作请求,提高了系统可扩展性。论文还设计了多种数据安全方法相结合的数据安全策略,提高了系统中数据的安全性。数据管理维护系统的开发和测试过程表明,该方案基本满足卫星地面应用系统中数据管理和维护的需求。