291 resultados para summation
Resumo:
Es ist allgemein bekannt, dass sich zwei gegebene Systeme spezieller Funktionen durch Angabe einer Rekursionsgleichung und entsprechend vieler Anfangswerte identifizieren lassen, denn computeralgebraisch betrachtet hat man damit eine Normalform vorliegen. Daher hat sich die interessante Forschungsfrage ergeben, Funktionensysteme zu identifizieren, die über ihre Rodriguesformel gegeben sind. Zieht man den in den 1990er Jahren gefundenen Zeilberger-Algorithmus für holonome Funktionenfamilien hinzu, kann die Rodriguesformel algorithmisch in eine Rekursionsgleichung überführt werden. Falls die Funktionenfamilie überdies hypergeometrisch ist, sogar laufzeiteffizient. Um den Zeilberger-Algorithmus überhaupt anwenden zu können, muss es gelingen, die Rodriguesformel in eine Summe umzuwandeln. Die vorliegende Arbeit beschreibt die Umwandlung einer Rodriguesformel in die genannte Normalform für den kontinuierlichen, den diskreten sowie den q-diskreten Fall vollständig. Das in Almkvist und Zeilberger (1990) angegebene Vorgehen im kontinuierlichen Fall, wo die in der Rodriguesformel auftauchende n-te Ableitung über die Cauchysche Integralformel in ein komplexes Integral überführt wird, zeigt sich im diskreten Fall nun dergestalt, dass die n-te Potenz des Vorwärtsdifferenzenoperators in eine Summenschreibweise überführt wird. Die Rekursionsgleichung aus dieser Summe zu generieren, ist dann mit dem diskreten Zeilberger-Algorithmus einfach. Im q-Fall wird dargestellt, wie Rekursionsgleichungen aus vier verschiedenen q-Rodriguesformeln gewonnen werden können, wobei zunächst die n-te Potenz der jeweiligen q-Operatoren in eine Summe überführt wird. Drei der vier Summenformeln waren bislang unbekannt. Sie wurden experimentell gefunden und per vollständiger Induktion bewiesen. Der q-Zeilberger-Algorithmus erzeugt anschließend aus diesen Summen die gewünschte Rekursionsgleichung. In der Praxis ist es sinnvoll, den schnellen Zeilberger-Algorithmus anzuwenden, der Rekursionsgleichungen für bestimmte Summen über hypergeometrische Terme ausgibt. Auf dieser Fassung des Algorithmus basierend wurden die Überlegungen in Maple realisiert. Es ist daher sinnvoll, dass alle hier aufgeführten Prozeduren, die aus kontinuierlichen, diskreten sowie q-diskreten Rodriguesformeln jeweils Rekursionsgleichungen erzeugen, an den hypergeometrischen Funktionenfamilien der klassischen orthogonalen Polynome, der klassischen diskreten orthogonalen Polynome und an der q-Hahn-Klasse des Askey-Wilson-Schemas vollständig getestet werden. Die Testergebnisse liegen tabellarisch vor. Ein bedeutendes Forschungsergebnis ist, dass mit der im q-Fall implementierten Prozedur zur Erzeugung einer Rekursionsgleichung aus der Rodriguesformel bewiesen werden konnte, dass die im Standardwerk von Koekoek/Lesky/Swarttouw(2010) angegebene Rodriguesformel der Stieltjes-Wigert-Polynome nicht korrekt ist. Die richtige Rodriguesformel wurde experimentell gefunden und mit den bereitgestellten Methoden bewiesen. Hervorzuheben bleibt, dass an Stelle von Rekursionsgleichungen analog Differential- bzw. Differenzengleichungen für die Identifikation erzeugt wurden. Wie gesagt gehört zu einer Normalform für eine holonome Funktionenfamilie die Angabe der Anfangswerte. Für den kontinuierlichen Fall wurden umfangreiche, in dieser Gestalt in der Literatur noch nie aufgeführte Anfangswertberechnungen vorgenommen. Im diskreten Fall musste für die Anfangswertberechnung zur Differenzengleichung der Petkovsek-van-Hoeij-Algorithmus hinzugezogen werden, um die hypergeometrischen Lösungen der resultierenden Rekursionsgleichungen zu bestimmen. Die Arbeit stellt zu Beginn den schnellen Zeilberger-Algorithmus in seiner kontinuierlichen, diskreten und q-diskreten Variante vor, der das Fundament für die weiteren Betrachtungen bildet. Dabei wird gebührend auf die Unterschiede zwischen q-Zeilberger-Algorithmus und diskretem Zeilberger-Algorithmus eingegangen. Bei der praktischen Umsetzung wird Bezug auf die in Maple umgesetzten Zeilberger-Implementationen aus Koepf(1998/2014) genommen. Die meisten der umgesetzten Prozeduren werden im Text dokumentiert. Somit wird ein vollständiges Paket an Algorithmen bereitgestellt, mit denen beispielsweise Formelsammlungen für hypergeometrische Funktionenfamilien überprüft werden können, deren Rodriguesformeln bekannt sind. Gleichzeitig kann in Zukunft für noch nicht erforschte hypergeometrische Funktionenklassen die beschreibende Rekursionsgleichung erzeugt werden, wenn die Rodriguesformel bekannt ist.
Resumo:
Integration of inputs by cortical neurons provides the basis for the complex information processing performed in the cerebral cortex. Here, we propose a new analytic framework for understanding integration within cortical neuronal receptive fields. Based on the synaptic organization of cortex, we argue that neuronal integration is a systems--level process better studied in terms of local cortical circuitry than at the level of single neurons, and we present a method for constructing self-contained modules which capture (nonlinear) local circuit interactions. In this framework, receptive field elements naturally have dual (rather than the traditional unitary influence since they drive both excitatory and inhibitory cortical neurons. This vector-based analysis, in contrast to scalarsapproaches, greatly simplifies integration by permitting linear summation of inputs from both "classical" and "extraclassical" receptive field regions. We illustrate this by explaining two complex visual cortical phenomena, which are incompatible with scalar notions of neuronal integration.
Resumo:
In most psychological tests and questionnaires, a test score is obtained by taking the sum of the item scores. In virtually all cases where the test or questionnaire contains multidimensional forced-choice items, this traditional scoring method is also applied. We argue that the summation of scores obtained with multidimensional forced-choice items produces uninterpretable test scores. Therefore, we propose three alternative scoring methods: a weak and a strict rank preserving scoring method, which both allow an ordinal interpretation of test scores; and a ratio preserving scoring method, which allows a proportional interpretation of test scores. Each proposed scoring method yields an index for each respondent indicating the degree to which the response pattern is inconsistent. Analysis of real data showed that with respect to rank preservation, the weak and strict rank preserving method resulted in lower inconsistency indices than the traditional scoring method; with respect to ratio preservation, the ratio preserving scoring method resulted in lower inconsistency indices than the traditional scoring method
Resumo:
Lecture notes in LaTex
Resumo:
Lecture notes in PDF
Resumo:
INTRODUCCIÓN. El ultrasonido es fundamental en la medicina de emergencias, no se conoce cual debería ser la curva de aprendizaje para obtener las competencias técnicas y operativas; ACEP recomienda por cada ventana ecográfica realizar 25 repeticiones. No existe una curva de aprendizaje para ventana de VCI en la población de residentes colombianos. OBJETIVO: Determinar la curva de aprendizaje necesaria para obtener una proporción mayor al 80% de éxitos en la toma de la ventana ecográfica de la VCI, usando la escala de calificación para el aseguramiento de la calidad sugerida por ACEP, en residentes de I a III año de medicina de emergencias. METODOLOGÍA: Estudio experimental no comparativo, que evaluó la proporción de éxito en función del las tomas repetidas de la VCI por ultrasonido, mediciones que se tomaron luego de participar en una capacitación teórica y demostrativa de la técnica propuesta; se calificaron los videos según la escala publicada por ACEP. El análisis estadístico se realizó con un modelo logístico multinivel para la proporción del éxito, agrupado por repetición y agrupado por sujeto. RESULTADOS: Se obtuvo información de 8 residentes, cada uno realizo 25 repeticiones a 3 modelos sanos con asignación aleatoria. Se realizó la curva de aprendizaje obteniendo en 11 repeticiones una proporción de 0.80 (rango 0.54 a 0.92) y en 21 repeticiones una proporción de 0.9 (rango 0.75 a 0.96), datos ajustados por numero de repetición y residente. CONCLUSIÓN: La curva de aprendizaje para la ventana ecográfica de la VCI es de 11 y 21 repeticiones para obtener el 80% y 90% de éxito en residentes de medicina de emergencias de I a III año de la universidad del rosario.
Resumo:
Background/aims: Scant consideration has been given to the variation in structure of the human amniotic membrane (AM) at source or to the significance such differences might have on its clinical transparency. Therefore, we applied our experience of quantifying corneal transparency to AM. Methods: Following elective caesarean, AM from areas of the fetal sac distal and proximal (ie, adjacent) to the placenta was compared with freeze-dried AM. The transmission of light through the AM samples was quantified spectrophotometrically; also, tissue thickness was measured by light microscopy and refractive index by refractometry. Results: Freeze-dried and freeze-thawed AM samples distal and proximal to the placenta differed significantly in thickness, percentage transmission of visible light and refractive index. The thinnest tissue (freeze-dried AM) had the highest transmission spectra. The thickest tissue (freeze-thawed AM proximal to the placenta) had the highest refractive index. Using the direct summation of fields method to predict transparency from an equivalent thickness of corneal tissue, AM was found to be up to 85% as transparent as human cornea. Conclusion: When preparing AM for ocular surface reconstruction within the visual field, consideration should be given to its original location from within the fetal sac and its method of preservation, as either can influence corneal transparency.
Resumo:
The paper describes a method whereby the distribution of fatigue damage along riser tensioner ropes is calculated, taking account of heave motion, set tension, system geometry, tidal range and rope specification. From these data the distribution of damage along the rope is calculated for a given time period using a Miner’s summation method. This information can then be used to help the operator decide on the length of rope to ‘slip and cut’ whereby a length from the end of the rope is removed and the rope moved through the system from a storage drum such that sections of rope that have already suffered significant fatigue damage are not moved to positions where there is another peak in the distribution. There are two main advantages to be gained by using the fatigue damage model. The first is that it shows the amount of fatigue damage accumulating at different points along the rope, enabling the most highly damaged section to be removed well before failure. The second is that it makes for greater efficiency, as damage can be spread more evenly along the rope over time, avoiding the need to scrap long sections of undamaged rope.
Resumo:
The work reported in this paper is motivated towards handling single node failures for parallel summation algorithms in computer clusters. An agent based approach is proposed in which a task to be executed is decomposed to sub-tasks and mapped onto agents that traverse computing nodes. The agents intercommunicate across computing nodes to share information during the event of a predicted node failure. Two single node failure scenarios are considered. The Message Passing Interface is employed for implementing the proposed approach. Quantitative results obtained from experiments reveal that the agent based approach can handle failures more efficiently than traditional failure handling approaches.
Resumo:
A parallel structure is suggested for feedback control systems. Such a technique can be applied to either single or multi-sensor environments and is ideally suited for parallel processor implementation. The control input actually applied is based on a weighted summation of the different parallel controller values, the weightings being either fixed values or chosen by an adaptive decision-making mechanism. The effect of different controller combinations is a field now open to study.
Resumo:
A discrete-time algorithm is presented which is based on a predictive control scheme in the form of dynamic matrix control. A set of control inputs are calculated and made available at each time instant, the actual input applied being a weighted summation of the inputs within the set. The algorithm is directly applicable in a self-tuning format and is therefore suitable for slowly time-varying systems in a noisy environment.
Resumo:
In the year 1702 two books were published, in Oxford and Paris, that can now be seen as defining the presses that produced them. In Paris, the Imprimerie Royale issued the Médailles sur les principaux évènements du règne de Louis le Grand, a large folio of text and plates intended to glorify the regime of Louis XIV. In Oxford, the first, large format volume of Clarendon’s The history of the rebellion appeared; painstakingly edited at Christ Church, it brought prestige and profit to the University. Both were considerable statements of publishing intent in graphic form: both were sumptuous, and both used types and decorations reserved to their respective presses. But the French book points the way to future developments in typography, particularly in the design of type, while the Oxford book is a summation of the past, and its types and page design would be abandoned by the Oxford press in little more than thirty years. Tracing the printed pages of Oxford books from the late sixteenth to the mid-eighteenth century shows changes that parallel wider developments in English and European typography, but from a distinctly Oxford perspective.
Resumo:
We investigate in detail the initial susceptibility, magnetization curves, and microstructure of ferrofluids in various concentration and particle dipole moment ranges by means of molecular dynamics simulations. We use the Ewald summation for the long-range dipolar interactions, take explicitly into account the translational and rotational degrees of freedom, coupled to a Langevin thermostat. When the dipolar interaction energy is comparable with the thermal energy, the simulation results on the magnetization properties agree with the theoretical predictions very well. For stronger dipolar couplings, however, we find systematic deviations from the theoretical curves. We analyze in detail the observed microstructure of the fluids under different conditions. The formation of clusters is found to enhance the magnetization at weak fields and thus leads to a larger initial susceptibility. The influence of the particle aggregation is isolated by studying ferro-solids, which consist of magnetic dipoles frozen in at random locations but which are free to rotate. Due to the artificial suppression of clusters in ferrosolids the observed susceptibility is considerably lowered when compared to ferrofluids.
Resumo:
This work describes two similar methods for calculating gamma transition intensities from multidetector coincidence measurements. In the first one, applicable to experiments where the angular correlation function is explicitly fitted, the normalization parameter from this fit is used to determine the gamma transition intensities. In the second, that can be used both in angular correlation or DCO measurements, the spectra obtained for all the detector pairs are summed up, in order to get the best detection statistics possible, and the analysis of the resulting bidimensional spectrum is used to calculate the transition intensities; in this method, the summation of data corresponding to different angles minimizes the influence of the angular correlation coefficient. Both methods are then tested in the calculation of intensities for well-known transitions from a (152)Eu standard source, as well as in the calculation of intensities obtained in beta-decay experiments with (193)Os and (155)Sm sources, yielding excellent results in all these cases. (C) 2009 Elsevier B.V. All rights reserved.
Resumo:
Syftet med examensarbetet var att med utgångspunkt i ett konkret exempel, beskriva hur företag kan organisera verksamheten för att ta till vara på de anställdas outnyttjade kreativitet. Materialet i examensarbetet kan mycket väl tillämpas och användas i andra organisationer än den studerade organisationen Ica DE Borlänge. Dock bör beaktande tas till den specifika kontexten som föreligger vid implementeringen av materialet. Med stöd av den teoretiska referensramen visar resultaten av analysen ett behov av en ny organisationsstruktur med tydliga roller och nya belöningssystem. Den studerade organisationen är en lärande organisation där ett medarbetarengagemang söker främjas. Genom en ny organisationsstruktur med tydliga roller ökar detta medarbetarengagemanget och fler genomförda förbättringar genomförs snabbare, vilket bidrar till att de anställdas outnyttjade kreativitet tillvaratas på ett framgångsrikt sätt. De nya belöningssystemen flyttar fokus till medarbetarengagemanget och förbättringsarbetet, vilket främjar ett genomsyrande Lean-tänkande i organisationen. Belöningssystemen skapar även jämnare produktionsflöden som höjer arbetssäkerheten, ökar produktionskvalitén, minimerar stress samt skapar goda förutsättningar för att beräkna personalbemanningen. Kvalitativa metoder har använts för datainsamlingen. Dessa utfördes genom en förstudie och en fallstudie. Fallstudien bestod utav bakgrundsintervjuer, en intervjustudie samt en observation. Det empiriska materialet visar att organisationen arbetar med ett omfattande förbättringsarbete i alla organisatoriska nivåer. Både chefer och medarbetare har viljan och ambitionen att få till ett framgångsrikt förbättringsarbete, men trots flera års arbete med Lean efterfrågas ändå mer tid, bättre organisationsstruktur samt en sambandskoordinatör med specialistkompetens som driver förbättringsarbetet framåt. Empirin ger en viss indikation på att förbättringsverksamheten har anpassats och organiserats till den befintliga organisationsstrukturen. Förbättringsarbetet torde bli mer framgångsrikt om verksamheten anpassas och organiseras utefter de anställdas outnyttjade kreativitet istället. I summering av slutsatsen åskådliggörs två centrala variabler som kan bidra till långsiktiga framgångar i arbetet med att tillvarata de anställdas outnyttjade kreativitet. En ny organisationsstruktur med tydliga roller som fokuserar på förbättringsarbetet samt nya belöningssystem för inlämnade förbättringsförslag, skulle vara av stor betydelse för ett långsiktigt medarbetarengagemang i en framgångsrik organisation.