823 resultados para Boolean Computations
Resumo:
This 2-page planner will help students search databases more effectively using Boolean logic
Resumo:
Objetivo: identificar evidencia bibliográfica del uso de la música como herramienta en procesos de inclusión de personas con discapacidad, que permitiera ofrecer sustento teórico al proyecto del convenio establecido entre la Fundación Saldarriaga Concha y la Fundación Nacional Batuta. Materiales y métodos: como estrategia de búsqueda se utilizaron los temas “música”, “inclusión” y “discapacidad” y el booleano AND en tres bases de datos: Ebsco, Medline y Lilacs. Los análisis fueron realizados mediante el establecimiento de frecuencias para variables como revista, país, tipo de estudio y años de publicación. Se localizaron veintidós artículos que incluyeron los criterios de búsqueda definidos por los autores. Resultados: los resultados muestran que la mayoría de publicaciones se encuentra en la base de datos Ebsco, en la revista Music Educators Journal, en el período comprendido entre el año 2004 a 2006 (40,9%). Estados Unidos es el país que más publicaciones ha realizado (81,8%). El tipo de estudio más frecuente es la revisión de tema (86,4%) y la temática más utilizada incorpora aspectos como música-discapacidad. De acuerdo con Rumbo, Aranton y García, el grado de evidencia de los documentos analizados es 3, lo que indica que son principalmente estudios descriptivos y de opinión de expertos. Conclusiones: después de realizar la búsqueda sistemática se puede concluir que las publicaciones que incorporan el uso de la música como herramienta para facilitar procesos de inclusión social de niños y adolescentes es escasa, por lo que se sugiere sistematizar y publicar resultados de las intervenciones en este campo de la Terapia Ocupacional. El presente documento proporciona una posible ruta para el desarrollo de futuras investigaciones referentes al tema.
Resumo:
En esta investigación, se elaboran una serie de sistemas expertos destinados a conservatorios de música españoles. Los sistemas expertos desarrollados están basados en lógica y álgebra computacional, por ello se denominan a los sistemas presentados sistemas computacionales.. Por un lado, se diseña un primer sistema computacional para evaluar las condiciones musicales de quienes desean dedicarse profesionalmente al estudio de un instrumento. Este sistema está destinado a las pruebas de ingreso, desarrolladas en conservatorios de música españoles. Se pretende facilitar ayuda adicional para la selección del alumnado más eficiente. El sistema computacional tiene en cuenta algunos factores que los expertos pasan por alto como las actitudes personales de los candidatos, capacidades físicas, ámbito social y ámbito familiar entre otros. Se desarrollan tres sistemas, presentados en orden cronológico, para reconocer algunos de los estilos musicales más relevantes desde el siglo XVII, uno para el reconocimiento del Barroco, el Rococó y el Clásico; otro para el reconocimiento del Romanticismo, el Impresionismo y Nacionalismo; y un tercero para el reconocimiento de estilos musicales durante el siglo XX, Antiimpresionismo, Verismo y Expresionismo.. El trabajo recoge una descripción exhaustiva de la información que da lugar a las cuatro bases de conocimiento elaboradas. Se describen, de forma clara y concisa, los elementos fundamentales de la teoría de las 'Bases de Gröbner' y de la relación entre consecuencia en lógica y 'pertenencia a un ideal' en álgebra. La construcción de los programas en el lenguaje CoCoA, Computations in Commutative Álgebra, está realizada con rigor. Se incluye un interfaz para que cualquier persona sin conocimientos informáticos, pueda utilizar los sistemas. En esta tesis se combinan, de forma original y útil, música, lógica, matemáticas e informática..
Resumo:
Our new simple method for calculating accurate Franck-Condon factors including nondiagonal (i.e., mode-mode) anharmonic coupling is used to simulate the C2H4+X2B 3u←C2H4X̃1 Ag band in the photoelectron spectrum. An improved vibrational basis set truncation algorithm, which permits very efficient computations, is employed. Because the torsional mode is highly anharmonic it is separated from the other modes and treated exactly. All other modes are treated through the second-order perturbation theory. The perturbation-theory corrections are significant and lead to a good agreement with experiment, although the separability assumption for torsion causes the C2 D4 results to be not as good as those for C2 H4. A variational formulation to overcome this circumstance, and deal with large anharmonicities in general, is suggested
Resumo:
En problemes d'assignació de recursos, normalment s'han de tenir en compte les incerteses que poden provocar canvis en les dades inicials. Aquests canvis dificulten l'aplicabilitat de les planificacions que s'hagin fet inicialment. Aquesta tesi se centra en l'elaboració de tècniques que consideren la incertesa alhora de cercar solucions robustes, és a dir solucions que puguin continuar essent vàlides encara que hi hagi canvis en l'entorn. Particularment, introduïm el concepte de robustesa basat en reparabilitat, on una solució robusta és una que pot ser reparada fàcilment en cas que hi hagi incidències. La nostra aproximació es basa en lògica proposicional, codificant el problema en una fórmula de satisfactibilitat Booleana, i aplicant tècniques de reformulació per a la generació de solucions robustes. També presentem un mecanisme per a incorporar flexibilitat a les solucions robustes, de manera que es pugui establir fàcilment el grau desitjat entre robustesa i optimalitat de les solucions.
Resumo:
La present Tesi Doctoral, titulada desenvolupament computacional de la semblança molecular quàntica, tracta, fonamentalment, els aspectes de càlcul de mesures de semblança basades en la comparació de funcions de densitat electrònica.El primer capítol, Semblança quàntica, és introductori. S'hi descriuen les funcions de densitat de probabilitat electrònica i llur significança en el marc de la mecànica quàntica. Se n'expliciten els aspectes essencials i les condicions matemàtiques a satisfer, cara a una millor comprensió dels models de densitat electrònica que es proposen. Hom presenta les densitats electròniques, mencionant els teoremes de Hohenberg i Kohn i esquematitzant la teoria de Bader, com magnituds fonamentals en la descripció de les molècules i en la comprensió de llurs propietats.En el capítol Models de densitats electròniques moleculars es presenten procediments computacionals originals per l'ajust de funcions densitat a models expandits en termes de gaussianes 1s centrades en els nuclis. Les restriccions físico-matemàtiques associades a les distribucions de probabilitat s'introdueixen de manera rigorosa, en el procediment anomenat Atomic Shell Approximation (ASA). Aquest procediment, implementat en el programa ASAC, parteix d'un espai funcional quasi complert, d'on se seleccionen variacionalment les funcions o capes de l'expansió, d'acord als requisits de no negativitat. La qualitat d'aquestes densitats i de les mesures de semblança derivades es verifica abastament. Aquest model ASA s'estén a representacions dinàmiques, físicament més acurades, en quant que afectades per les vibracions nuclears, cara a una exploració de l'efecte de l'esmorteïment dels pics nuclears en les mesures de semblança molecular. La comparació de les densitats dinàmiques respecte les estàtiques evidencia un reordenament en les densitats dinàmiques, d'acord al que constituiria una manifestació del Principi quàntic de Le Chatelier. El procediment ASA, explícitament consistent amb les condicions de N-representabilitat, s'aplica també a la determinació directe de densitats electròniques hidrogenoides, en un context de teoria del funcional de la densitat.El capítol Maximització global de la funció de semblança presenta algorismes originals per la determinació de la màxima sobreposició de les densitats electròniques moleculars. Les mesures de semblança molecular quàntica s'identifiquen amb el màxim solapament, de manera es mesuri la distància entre les molècules, independentment dels sistemes de referència on es defineixen les densitats electròniques. Partint de la solució global en el límit de densitats infinitament compactades en els nuclis, es proposen tres nivells de aproximació per l'exploració sistemàtica, no estocàstica, de la funció de semblança, possibilitant la identificació eficient del màxim global, així com també dels diferents màxims locals. Es proposa també una parametrització original de les integrals de recobriment a través d'ajustos a funcions lorentzianes, en quant que tècnica d'acceleració computacional. En la pràctica de les relacions estructura-activitat, aquests avenços possibiliten la implementació eficient de mesures de semblança quantitatives, i, paral·lelament, proporcionen una metodologia totalment automàtica d'alineació molecular. El capítol Semblances d'àtoms en molècules descriu un algorisme de comparació dels àtoms de Bader, o regions tridimensionals delimitades per superfícies de flux zero de la funció de densitat electrònica. El caràcter quantitatiu d'aquestes semblances possibilita la mesura rigorosa de la noció química de transferibilitat d'àtoms i grups funcionals. Les superfícies de flux zero i els algorismes d'integració usats han estat publicats recentment i constitueixen l'aproximació més acurada pel càlcul de les propietats atòmiques. Finalment, en el capítol Semblances en estructures cristal·lines hom proposa una definició original de semblança, específica per la comparació dels conceptes de suavitat o softness en la distribució de fonons associats a l'estructura cristal·lina. Aquests conceptes apareixen en estudis de superconductivitat a causa de la influència de les interaccions electró-fonó en les temperatures de transició a l'estat superconductor. En aplicar-se aquesta metodologia a l'anàlisi de sals de BEDT-TTF, s'evidencien correlacions estructurals entre sals superconductores i no superconductores, en consonància amb les hipòtesis apuntades a la literatura sobre la rellevància de determinades interaccions.Conclouen aquesta tesi un apèndix que conté el programa ASAC, implementació de l'algorisme ASA, i un capítol final amb referències bibliogràfiques.
Resumo:
Esta dissertação resulta de uma investigação que levou a cabo um estudo webométrico sobre a presença das universidades portuguesas na Web, avaliando a visibilidade das instituições através do cálculo de um indicador webométrico, o Web Impact Factor. A World Wide Web é, na atualidade, um dos principais meios de difusão de Informação. Os Estudos Métricos da Informação visam quantificar e avaliar a produção de Informação, objeto de estudo de disciplinas como a Infometria, a Cienciometria e a Bibliometria. Recentemente, surgiram a Cibermetria e a Webometria como novas disciplinas que estudam a produção e difusão da Informação no contexto do Ciberespaço e da World Wide Web, respetivamente. As universidades, enquanto polos privilegiados de produção e difusão de conhecimento, são o objeto de estudo natural da Webometria e a avaliação da sua presença na World Wide Web contribui para a análise do desempenho destas instituições. Para a realização deste trabalho foi adotada a metodologia proposta por Noruzi, que calcula três categorias de Web Impact Factor: o WIF Total, o WIF Revisto e o Selflink WIF. De modo a calcular estas categorias, foram recolhidos dados quantitativos de inlinks, selflinks, número total de páginas e número de páginas indexadas pelo motor de pesquisa. O motor de pesquisa utilizado foi o Altavista, tendo sido realizadas pesquisas de expressões booleanas durante o primeiro semestre de 2009. Após a recolha, os dados foram tratados estatisticamente e procedeu-se ao cálculo das categorias do WIF. Conclui-se que existe uma maior visibilidade das universidades públicas portuguesas porque obtêm melhores resultados ao nível de duas categorias do Web Impact Factor: o WIF Revisto e o Selflink WIF.
Resumo:
Point defects in metal oxides such as TiO2 are key to their applications in numerous technologies. The investigation of thermally induced nonstoichiometry in TiO2 is complicated by the difficulties in preparing and determining a desired degree of nonstoichiometry. We study controlled self-doping of TiO2 by adsorption of 1/8 and 1/16 monolayer Ti at the (110) surface using a combination of experimental and computational approaches to unravel the details of the adsorption process and the oxidation state of Ti. Upon adsorption of Ti, x-ray and ultraviolet photoemission spectroscopy (XPS and UPS) show formation of reduced Ti. Comparison of pure density functional theory (DFT) with experiment shows that pure DFT provides an inconsistent description of the electronic structure. To surmount this difficulty, we apply DFT corrected for on-site Coulomb interaction (DFT+U) to describe reduced Ti ions. The optimal value of U is 3 eV, determined from comparison of the computed Ti 3d electronic density of states with the UPS data. DFT+U and UPS show the appearance of a Ti 3d adsorbate-induced state at 1.3 eV above the valence band and 1.0 eV below the conduction band. The computations show that the adsorbed Ti atom is oxidized to Ti2+ and a fivefold coordinated surface Ti atom is reduced to Ti3+, while the remaining electron is distributed among other surface Ti atoms. The UPS data are best fitted with reduced Ti2+ and Ti3+ ions. These results demonstrate that the complexity of doped metal oxides is best understood with a combination of experiment and appropriate computations.
Resumo:
Technology involving genetic modification of crops has the potential to make a contribution to rural poverty reduction in many developing countries. Thus far, pesticide-producing Bacillus thuringensis (Bt) varieties of cotton have been the main GM crops under cultivation in developing nations. Several studies have evaluated the farm-level performance of Bt varieties in comparison to conventional ones by estimating production technology, and have mostly found Bt technology to be very successful in raising output and/or reducing pesticide input. However, the production risk properties of this technology have not been studied, although they are likely to be important to risk-averse smallholders. This study investigates the output risk aspects of Bt technology by estimating two 'flexible risk' production function models allowing technology to independently affect the mean and higher moments of output. The first is the popular Just-Pope model and the second is a more general 'damage control' flexible risk model. The models are applied to cross-sectional data on South African smallholders, some of whom used Bt varieties. The results show no evidence that a 'risk-reduction' claim can be made for Bt technology. Indeed, there is some evidence to support the notion that the technology increases output risk, implying that simple (expected) profit computations used in past evaluations may overstate true benefits.
Resumo:
We consider the problem of determining the pressure and velocity fields for a weakly compressible fluid flowing in a two-dimensional reservoir in an inhomogeneous, anisotropic porous medium, with vertical side walls and variable upper and lower boundaries, in the presence of vertical wells injecting or extracting fluid. Numerical solution of this problem may be expensive, particularly in the case that the depth scale of the layer h is small compared to the horizontal length scale l. This is a situation which occurs frequently in the application to oil reservoir recovery. Under the assumption that epsilon=h/l<<1, we show that the pressure field varies only in the horizontal direction away from the wells (the outer region). We construct two-term asymptotic expansions in epsilon in both the inner (near the wells) and outer regions and use the asymptotic matching principle to derive analytical expressions for all significant process quantities. This approach, via the method of matched asymptotic expansions, takes advantage of the small aspect ratio of the reservoir, epsilon, at precisely the stage where full numerical computations become stiff, and also reveals the detailed structure of the dynamics of the flow, both in the neighborhood of wells and away from wells.
Resumo:
The goal of this work is the numerical realization of the probe method suggested by Ikehata for the detection of an obstacle D in inverse scattering. The main idea of the method is to use probes in the form of point source (., z) with source point z to define an indicator function (I) over cap (z) which can be reconstructed from Cauchy data or far. eld data. The indicator function boolean AND (I) over cap (z) can be shown to blow off when the source point z tends to the boundary aD, and this behavior can be used to find D. To study the feasibility of the probe method we will use two equivalent formulations of the indicator function. We will carry out the numerical realization of the functional and show reconstructions of a sound-soft obstacle.
Resumo:
For a nonlocally perturbed half- space we consider the scattering of time-harmonic acoustic waves. A second kind boundary integral equation formulation is proposed for the sound-soft case, based on a standard ansatz as a combined single-and double-layer potential but replacing the usual fundamental solution of the Helmholtz equation with an appropriate half- space Green's function. Due to the unboundedness of the surface, the integral operators are noncompact. In contrast to the two-dimensional case, the integral operators are also strongly singular, due to the slow decay at infinity of the fundamental solution of the three-dimensional Helmholtz equation. In the case when the surface is sufficiently smooth ( Lyapunov) we show that the integral operators are nevertheless bounded as operators on L-2(Gamma) and on L-2(Gamma G) boolean AND BC(Gamma) and that the operators depend continuously in norm on the wave number and on G. We further show that for mild roughness, i.e., a surface G which does not differ too much from a plane, the boundary integral equation is uniquely solvable in the space L-2(Gamma) boolean AND BC(Gamma) and the scattering problem has a unique solution which satisfies a limiting absorption principle in the case of real wave number.
Resumo:
This document provides and comments on the results of the Lucas-Lehmer testing and/or partial factorisation of all Mersenne Numbers Mp = 2^p-1 where p is prime and less than 100,000. Previous computations have either been confirmed or corrected. The LLT computations on the ICL DAP is the first implementation of Fast-Fermat-Number-Transform multiplication in connection with Mersenne Number testing. This paper championed the disciplines of systematically testing the Mp, and of double-sourcing results which were not manifestly correct. Both disciplines were adopted by the later GIMPS initiative, the 'Great Internet Mersenne Prime Search, which was itself one of the first web-based distributed-community projects.
Resumo:
One among the most influential and popular data mining methods is the k-Means algorithm for cluster analysis. Techniques for improving the efficiency of k-Means have been largely explored in two main directions. The amount of computation can be significantly reduced by adopting geometrical constraints and an efficient data structure, notably a multidimensional binary search tree (KD-Tree). These techniques allow to reduce the number of distance computations the algorithm performs at each iteration. A second direction is parallel processing, where data and computation loads are distributed over many processing nodes. However, little work has been done to provide a parallel formulation of the efficient sequential techniques based on KD-Trees. Such approaches are expected to have an irregular distribution of computation load and can suffer from load imbalance. This issue has so far limited the adoption of these efficient k-Means variants in parallel computing environments. In this work, we provide a parallel formulation of the KD-Tree based k-Means algorithm for distributed memory systems and address its load balancing issue. Three solutions have been developed and tested. Two approaches are based on a static partitioning of the data set and a third solution incorporates a dynamic load balancing policy.