379 resultados para Toolkit
Resumo:
针对当前装配领域的特点 ,提出一个面向虚拟装配的三维交互平台 (Virtual Assem bly Toolkit,VAT) .VAT中包含了新的三维交互思想 ,定义了装配领域中常用的三维交互原语 ,设计和实现了交互原语的捕获、解释和处理框架 .同时 ,VAT封装了三维图形构造、零件间的约束和碰撞检测等功能 .VAT可以大大简化虚拟装配应用的构造 ,便于应用的快速生成
Resumo:
随着网络技术和信息技术的飞速发展,互联网环境下的安全问题越来越受到政府、军事和商业部门的重视。密码技术是信息安全的核心技术,密码算法的设计和实现一直是信息安全学界的重要研究内容。近年来,随着计算技术和网络的飞速发展,计算工具和模式发生了变化,出现了分布式计算、网格计算和云计算等新技术。在国内外已经分别采取过大型机、并行计算和分布式计算等方式来提高密码计算的速度。采用新技术来设计和实现新的密码计算平台,对密码算法的设计、分析以及应用有重要意义。分布式计算和网格计算在信息安全领域中的应用是本文的主要研究内容。 首先,通过分析密码计算和网格计算的特点,确定了本文的研究目标,即构建一个通用的、高效的、可扩展的、可移植的分布式计算环境。其次,分析研究目标的特点以及遇到的问题,详细讨论系统所采用解决方案的特点及优势。在系统分析设计的基础上,基于Globus Toolkit和SWT/JFace工具包,对Gnomon分布式密码计算环境进行了实现,并详细介绍了各个模块的功能。最后,设计和实现了两个问题实例:大整数因子分解和Rainbow攻击。针对问题实例,进行了多组实验,并给出了相应的实验结果和分析。 Gnomon分布式计算环境为密码的分布式计算提供支持,其易用性和可扩展性为密码分析和设计人员带来了方便。本文研究成果推动了分布式密码计算的研究与发展。
Resumo:
根据目标平台体系结构尤其是存储系统组织结构的差异,并行计算模型可以分成三代:共享存储并行计算模型、分布存储并行计算模型和层次存储并行计算模型。并行计算模型从第一代发展到第三代的过程中引入了越来越多的模型参数,而且随着处理器与存储系统之间速度差的不断增大,把存储层次引入并行计算模型成为一个新的发展趋势。这在提高模型分析精确度的同时也导致了模型的分析工作越来越复杂,因此有必要设计一个能够对并行计算模型参数进行半自动的获取和分析工具包,以便辅助模型分析工作。 本文首先介绍并行计算模型的发展过程和每个模型涉及到的模型参数,在此基础上提出了我们的并行计算模型参数动态采集分析软件工具包(DEMPAT)及其整体框架,并对现有的基准测试工具进行了简要介绍。我们着重分析了存储层次参数采集模块的设计理论和方法,实现了基于PAPI的高速缓存和TLB参数采集工具,并在主流的平台上进行了相关实验。另外我们采集了两种三角矩阵求逆算法的动态访存行为和浮点运算次数,揭示了存储访问复杂性对算法性能的影响。从实验结果可以看出我们的采集工具具有较好的可用性和精确性,可以作为并行计算模型参数动态采集分析工具中一个重要的组成部分。
Resumo:
大规模科学计算已经广泛应用在气象、海洋、化学、生物医药、电子工程等领域。科学计算软件的开发是科学计算的关键环节。开发一个具有良好可靠性的计算工具,并与大型计算工具箱集成而完成大规模、复杂实际问题的计算,具有重要意义。 PETSc(Portable, Extensible Toolkit for Scientific Computation)是国际流行的科学计算工具箱,它可用于偏微分方程的求解及相关的高性能计算问题。本文分析了PETSc的主要功能、结构与特色,并剖析了其核心组件,包括向量、矩阵、线性方程组求解器KSP、非线性求解器SNES等。 自动微分是计算函数导数的重要方法,它可以应用在最优化问题的实际计算中。在PETSc中提供了ADIC、ADIFOR等自动微分软件包的接口。本文分析了自动微分计算函数一阶导数的切线性模式与伴随模式的基本原理,介绍了现有的自动微分软件的情况,特别是ADIC的开发及其与PETSc的接口。 DTC(Differentiation Transforming System in C)是针对C语言自动微分工具,用于生成切线性模式。DTC生成的切线性代码可用于计算雅可比矩阵-向量乘积等。本文详细介绍了DTC系统的设计及关键技术,包括编译技术、输入/输出(IO)相关分析等。针对PETSc的复杂数据结构,开发了DTC与PETSc的接口,将两者集成,并应用在求解二维全球正压大气浅水波方程中。最后给出了DTC系统的相关测试结果。
Resumo:
ITK(The Insight Toolkit)是一个开放的、面向对象的类库。它提供了强大的二维医学图像处理功能,主要用于医学图像的预处理、分割及配准。本文主要介绍图像分割的算法以及ITK在图像分割中的应用,并简要介绍一个基于ITK的医学图像处理的实现。
Resumo:
In this paper a two dimensional readout micromegas detector with a polyethylene foil as converter was simulated on GEANT4 toolkit and GARFIELD for fast neutron detection. A new track reconstruction method based on time coincidence technology was developed in the simulation to obtain the incident neutron position. The results showed that with this reconstruction method higher spatial resolution was achieved.
Resumo:
With the construction of the new Radioactive Ion Beam Line in Lanzhou (RIBLL II) which connects the CSRm and the CSRe, an experimental setup for physics research is highly required. A large area neutron detection wall is the main part of the setup. This paper introduced the detection principle of the neutron detection wall and the Monte-Carlo simulation of its design under the environment of the Geant4 toolkit. We presented the final design with the optimized parameters and the performance of the wall.
Resumo:
对重离子放射治疗的历史及束流配送系统进行简要回顾之后,本论文重点介绍了重离子治疗计划系统及在此方面所做的一些实践工作,最终目的是给正在进行重离子放射治疗临床试验研究的中国科学院近代物理研究所提供一些实践经验,为即将开展的深部肿瘤重离子治疗计划系统的建立奠定基础。本论文在医学影像算法平台MITK(medical imaging toolkit, MITK)的基础上开发了一个集成化的三维医学影像处理程序,提供了一个一致的框架,整合医学图像读取,二维、三维交互操作,医学图像三维面绘制等功能,并且完全支持DICOM3.0标准。在此基础上,利用IDL(interactive data language,IDL)实现了对医学CT图像像素值的提取,在对像素值沿束流贯穿方向上进行水等效处理后,根据CT图像给出的信息完成了初步的剂量计算与治疗计划的设计,并提出了一些治疗计划的验证方案。治疗计划系统是一种融合了多种诸如数学、放射物理学、放射生物学、计算机图形学、数字图像处理等学科的复杂软件系统,是放射治疗专家预先规划治疗方案的一种计算机辅助工具。其内容包括图像重建、靶区及紧要器官的划分、重离子束照射通道及束流能量的选择与确定、处方剂量向重离子辐照场强度的反演、辐射场的优化、重离子束辐射场控制数据的产生、剂量计算结果的二维及三维显示、治疗计划的生物效应评估以及治疗计划的优化等。本论文利用MITK和IDL对上述部分内容提供了一个基本的解决方案,为今后开发更加完善的重离子治疗计划系统搭建了框架
Resumo:
随着计算技术的迅速发展和广泛应用,计算机的形态、结构和使用环境也发生了本质上的变化,当前以普适计算为代表的计算模式正逐渐改变着人们办公、交流的方式。普适计算最重要的特征是移动性,现有的办公系统大多是针对普通文秘工作者和交流工作者设计的,它们只支持结构化、文档驱动的、重复性的管理性工作。然而,对于知识工作者而言,他们在进行普通信息处理工作的同时,更多的时候需要进行信息捕捉和信息利用,他们期望应用系统支持灵活的、非结构化的、信息驱动的研究性工作。此外,当前的系统大多支持信息的产生和发布,而对同样重要的经验捕捉缺乏支持。因此,如何更好地利用普适计算的计算资源支持知识工作者在移动环境下进行办公、交流是当前研究的热点问题。知识工作者的工作具有创造性和信息驱动的特点,他们处理的信息往往是非结构化和需要即时记录的。为了更好地支持知识工作者的办公需求,需要提供自然、高效的交互方式,灵活、轻量级的协作方式和相应的移动计算技术。这样,知识工作者才能更好的关注于其任务本身,提高办公、交流的效率。本文正是以此作为出发点,展开题为“支持协作的移动办公系统”的研究。本文首先归纳和总结了国内外相关研究的发展趋势,以此说明开展支持协作的移动办公系统研究的必要性;从多个维度对应用场景进行分析,总结了支持协作的移动办公系统的应用需求,建立了研究工作的概念框架。基于分布式认知理论,本文研究了协作交互相关的信息资源,建立了针对知识工作者的用户模型。该模型将交互信息和协作交互任务紧密结合,能够有效地指导协作交互式系统的设计。在此基础之上,本文对支持协作的移动办公场景进行了分析,提炼出一组相对稳定的功能需求,并建立了相应的界面模型。该模型通过将系统划分为用户层、协作层和计算层,有效的实现了系统功能层次上的分离,使得之能有效地指导系统的构造。在用户模型和界面模型的基础上,本文提出了支持协作办公应用的软件架构,并构造了一个灵活的、可复用的软件开发平台。平台对Ink处理、通讯协作、运行时架构进行了封装,能够有效地支持应用系统的开发。为了支持协作,本文实现了支持草图的即时通讯工具和回溯执行一致性算法。前者能够有效地支持多人合作进行笔迹书写、概念捕捉和交流,后者能够检测并消解因为并发交互而带来的操作冲突,保证笔迹文档的一致性。基于上述研究工作,本文实现了一个支持协作的移动办公系统──思维系统。思维系统能够有效的支持知识工作者进行信息采集、信息整理、信息交流和信息发布。本文的目标是:针对知识工作者的办公需求,从用户任务特征和应用场景两方面出发,建立用户模型和界面模型,设计和实现相应的关键技术和软件平台,最终构造具体的应用系统。本文主要的创新点有: 1. 提出了支持协作的移动办公系统概念框架本文从人机工效学的角度对系统进行了分析,认为人、计算机、环境是支持协作的移动办公系统需要考虑的主要因素。通过对协作交互空间中各种因素的分析,进行了维度划分。在此基础上提出了一个概念模型,概念模型抽象了人机交互、计算机支持的协作系统、移动计算和软件开发方法中的相关因素,探讨了研究范畴以及其中的交叉问题。 2. 建立了支持协作的移动办公系统的用户模型和界面模型。本文引入分布式认知理论,建立了协作资源模型CoRM(Collaborative Resource Model)。CoRM抽象出了多人协作交互式系统中交互相关的信息,提出了具体应用的交互策略,能够帮助交互系统获得一定的认知能力,理解和引导用户意图。本文提出了一种支持多人协作交互的界面模型CoPenIM。协作交互的本质是用户空间和计算空间之间的交互,我们通过对用户空间和计算空间的分解,建立了一个层次模型,并且对文档对象、交互过程、交互任务和一致性维护这四个层次进行了阐述。与现有的协作模型相比,CoPenIM更适合于协作笔式交互,更能够保持交互的自然性和高效性。 3. 设计并实现了支持协作的移动办公系统开发平台本文构造了一种支持协作的移动办公系统开发平台CoPen Toolkit,用于支持协作的移动办公系统的快速构造和开发。平台对Ink语义对象、事件处理、通信协作和运行时架构等方面进行了抽象和封装,主要实现了支持草图的即时通讯工具和笔迹文档的一致性维护算法,这样用户可以将更多的精力集中在具体应用语义的处理上,而不需要过多考虑底层支撑结构。 4. 构建了具体应用实例──思维系统本文实现了一个面向知识工作者的应用实例──思维系统。思维系统能够有效支持知识工作者的各个阶段的工作任务,如信息采集、信息交流、信息整理和信息传播。系统使用了以笔式交互为主的交互方式,能够很好的支持知识工作者在移动环境下的进行办公,同时也支持多人之间的自然、流畅的交流和讨论。实践表明思维系统能够有效地辅助知识工作者进行概念捕捉、交流和传播。
Resumo:
We describe an approach to parallel compilation that seeks to harness the vast amount of fine-grain parallelism that is exposed through partial evaluation of numerically-intensive scientific programs. We have constructed a compiler for the Supercomputer Toolkit parallel processor that uses partial evaluation to break down data abstractions and program structure, producing huge basic blocks that contain large amounts of fine-grain parallelism. We show that this fine-grain prarllelism can be effectively utilized even on coarse-grain parallel architectures by selectively grouping operations together so as to adjust the parallelism grain-size to match the inter-processor communication capabilities of the target architecture.
Resumo:
We constructed a parallelizing compiler that utilizes partial evaluation to achieve efficient parallel object code from very high-level data independent source programs. On several important scientific applications, the compiler attains parallel performance equivalent to or better than the best observed results from the manual restructuring of code. This is the first attempt to capitalize on partial evaluation's ability to expose low-level parallelism. New static scheduling techniques are used to utilize the fine-grained parallelism of the computations. The compiler maps the computation graph resulting from partial evaluation onto the Supercomputer Toolkit, an eight VLIW processor parallel computer.
Resumo:
Durbin, J., Urquhart, C. & Yeoman, A. (2003). Evaluation of resources to support production of high quality health information for patients and the public. Final report for NHS Research Outputs Programme. Aberystwyth: Department of Information Studies, University of Wales Aberystwyth. Sponsorship: Department of Health
Resumo:
Urquhart, C. & Weightman, A. (2008). Assessing the impact of a health library service. Best Practice Guidance. Based on research originally funded by LKDN, now sponsored by National Library for Health. Aberystwyth: Department of Information Studies, Aberystwyth University. The guidance relates to a project report, Developing a toolkit for assessing the impact of health library services on patient care (also available in CADAIR). A version of this item is available as an online appendix to a paper in Health Information and Libraries Journal entitled: The value and impact of information provided through library services for patient care: developing guidance for best practice (Weightman, A., Urquhart, C. et al) available electronically prepublication Sponsorship: LKDN/NLH
Resumo:
Coherent shared memory is a convenient, but inefficient, method of inter-process communication for parallel programs. By contrast, message passing can be less convenient, but more efficient. To get the benefits of both models, several non-coherent memory behaviors have recently been proposed in the literature. We present an implementation of Mermera, a shared memory system that supports both coherent and non-coherent behaviors in a manner that enables programmers to mix multiple behaviors in the same program[HS93]. A programmer can debug a Mermera program using coherent memory, and then improve its performance by selectively reducing the level of coherence in the parts that are critical to performance. Mermera permits a trade-off of coherence for performance. We analyze this trade-off through measurements of our implementation, and by an example that illustrates the style of programming needed to exploit non-coherence. We find that, even on a small network of workstations, the performance advantage of non-coherence is compelling. Raw non-coherent memory operations perform 20-40~times better than non-coherent memory operations. An example application program is shown to run 5-11~times faster when permitted to exploit non-coherence. We conclude by commenting on our use of the Isis Toolkit of multicast protocols in implementing Mermera.