966 resultados para Algebra of Errors
Resumo:
Introduction et objectifs : Alors que l'effet moteur de la lévodopa (L-dopa) dans la maladie de Parkinson (MP) est clair et établi, son effet sur la cognition demeure incertain. Les troubles cognitifs ont un impact important sur la qualité de vie et les études évaluant l'effet cognitif de ce médicament donnent des résultats encore divergents. L’objectif primaire de cette étude pilote est d’observer l’impact des doses cliniques de lévodopa sur la cognition. Un second objectif sera d'établir une courbe dose-réponse pour observer les différences potentielles. Méthodes : Cinq patients avec MP ont été évalués à l’aide de 2 tests cognitifs (CPT-II et Stroop) et 2 tests moteurs (Finger Tapping et UPDRS-III) en OFF (sevrage minimal de 12 heures) et en ON avec des doses croissantes de lévodopa (commençant à 50mg avec une augmentation de dose de 50mg par visite) jusqu’à l'observation d'une performance cognitive optimale ou d'effets secondaires. Une administration répétée des tests cognitifs a été faite à la première visite pour limiter l’effet d’apprentissage. Résultats : Le temps de réaction (RT) mesuré en millisecondes au CPT-II a augmenté (médiane 3.03%) après la prise de médicament alors que les erreurs ont légèrement diminué (médiane -9.92%). Au Stroop, l’effet d’interférence évalué selon les changements au temps d’inhibition mesuré en secondes était légèrement moindre sans changement dans les erreurs. Avec les doses prescrites, le RT a augmenté de 3,50% et le nombre d’erreurs est resté stable alors que les doses inférieures ont eu une moindre augmentation du RT tout en diminuant les erreurs. Dans le Stroop, les doses faibles ont amélioré le temps de près de 19% alors que les doses prescrites ont quant à elles diminué les erreurs. Malgré une certaine variabilité, la courbe dose-réponse indique que les erreurs diminuaient aux doses faibles et fortes dans le CPT-II alors que le RT augmentait généralement, ce qui pourrait indiquer un style de performance plus prudent. L’effet de la lévodopa sur l’interférence dans le Stroop variait légèrement sans tendances fixes mis à part le bénéfice observé par les doses faibles. Une importante variabilité a été observée dans les évaluations motrices entre les sujets ainsi qu'au sein du même sujet. Conclusion : Ces résultats indiquent qu’en général, le médicament ne semble pas avoir d’effet néfaste important sur l’attention et les fonctions exécutives évaluées auprès de ce groupe de patients parkinsoniens. L'effet cognitif des doses plus faibles semble leur être bénéfique et meilleur que les doses cliniquement prescrites. La relation dose-réponse démontre un effet cognitif variable de la lévodopa entre les doses, n'indiquant toutefois pas de tendances claires.
Resumo:
Ce mémoire porte sur l’évolution de l’antijudaïsme chez les intellectuels chrétiens parisiens, particulièrement chez Eudes de Châteauroux, lors du procès du Talmud, c’est-à-dire, entre les années 1240 – année où commence le procès – et 1248, année de la condamnation finale des textes talmudiques. Avec la création des universités au XIIe siècle prend place une curiosité intellectuelle croissante et un désir d’apprendre davantage. Parallèlement à cet essor, l’Église se renforce et une orthodoxie doctrinale commence à s’implanter, avec le désir toujours plus fort de contrôler et d’encadrer les fidèles. Lorsque Nicolas Donin dénonce le Talmud au souverain pontife, en 1239, Grégoire IX demande aux savants chrétiens de l’étudier et de l’analyser. Après examen, ces textes sont condamnés et les juifs accusés de se détourner de l’Ancien Testament pour suivre le Talmud, un livre rempli d’erreurs. Ainsi, ce que nous allons démontrer dans ce travail est que l’antijudaïsme virulent chez Eudes de Châteauroux, lors du procès du Talmud, vient d’une incompréhension des livres talmudiques.
Resumo:
Travail dirigé présenté à la Faculté des études supérieures en vue de l’obtention du grade de maîtrise en science (M. Sc.) en criminologie, option criminalistique et information
Resumo:
Each year since 1986, between 100,000 and 135,000 households of Quebec welfare recipients have been visited by welfare inspectors, without any prior evidence of fraud. Yet, we know very little about the relevance and meaning of such controls. Following a review of the Quebec debate on this question, we try to evaluate the relevance of home visitations given the government's objectives, which focus on the reduction of errors and fraud. Since from this strictly administrative point of view, the results appear dubious, we also analyse the broader political meaning of the operation.
Resumo:
Ce mémoire de maitrise vise à dresser un portrait des erreurs syntaxiques des élèves du secondaire en analysant un corpus de textes de cinq groupes du Québec, de la 1re à la 5e secondaire. Les résultats actuels aux épreuves ministérielles des élèves de 5e secondaire nous indiquent que les élèves éprouvent des difficultés avec l’écriture du français. Une analyse approfondie nous permet de comprendre que l’amélioration de la situation passe par une meilleure connaissance des erreurs syntaxiques des élèves. En nous appuyant sur la grille de Boivin et Pinsonneault (2014), nous avons analysé les données provenant du codage des textes d’élèves de la 1re à la 5e secondaire. L’analyse de ces données nous a permis de constater que parmi les sept grandes catégories d’erreurs de la grille, c’est en syntaxe que les élèves commettent le plus d’erreurs. Une incursion au cœur des six sous-catégories de la syntaxe a révélé que la ponctuation causait le plus de problème aux élèves, et ce, à tous les niveaux. Les erreurs liées à la détermination de la catégorie grammaticale des mots (homophones) arrivaient en deuxième place. Par la suite, nous avons précisé davantage l’analyse en déterminant, pour chacun des codes, l’évolution du nombre d’erreurs d’un niveau du secondaire à l’autre. Il est ressorti de cette étude que les deux principales erreurs, basées sur les sous-catégories syntaxiques, sont celles portant sur l’usage de la virgule et celles liées à la confusion qui existe encore un verbe terminant par «er» et un adjectif ou un participe passé terminant par «é-e-s».
Resumo:
Connue pour augmenter les temps de réponse et les erreurs, l’alternance des tâches est considérée par les industriels comme un point de friction humain depuis plusieurs décennies. Pourtant malgré l’important nombre d’études sur l’alternance des tâches, peu s'intéressent à l'électrophysiologie humaine et au déploiement de l’attention visuospatiale. Le travail qui suit décrit notre incursion destinée à approfondir les connaissances autant sur les paradigmes d’alternance de tâche que les composantes électrophysiologiques typiquement reliées au déploiement de l’attention visuospatiale telles la N2pc ou la Ppc récemment décrite par Corriveau et al. (2012). Afin d’examiner les modulations des composantes électrophysiologiques sus nommées en fonction des coûts d’alternance, un paradigme d’alternance des tâches regroupant des blocs mixtes (avec alternance) et des blocs purs (sans alternance) a été utilisé. Les résultats démontrent un impact du coût d’alternance sur la latence de la N2pc, ce qui reflète comme attendu d’un processus de contrôle cognitif descendant sur la sélection attentionnelle visospatiale. De manière plus surprenante, des modulations de Ppc ont été observées, tandis que cette composante était jusqu’alors comprise comme une composante principalement reliée à une activité ascendante de bas niveau de traitement. Cette modulation de Ppc suggère l'existence d’un autre mécanisme de modulation attentionnelle antérieur à la N2pc.
Resumo:
RMS measuring device is a nonlinear device consisting of linear and nonlinear devices. The performance of rms measurement is influenced by a number of factors; i) signal characteristics, 2) the measurement technique used and 3) the device characteristics. RMS measurement is not simple, particularly when the signals are complex and unknown. The problem of rms measurement on high crest-factor signals is fully discussed and a solution to this problem is presented in this thesis. The problem of rms measurement is systematically analized and found to have mainly three types of errors: (1) amplitude or waveform error 2) Frequency error and (3) averaging error. Various rms measurement techniques are studied and compared. On the basis of this study the rms -measurement is reclassified three categories: (1) Wave-form-error-free measurement (2) High-frequncy-error measurement and (3) Low-frequency error-free measurement. In modern digital sampled-data systems the signals are complex and waveform-error-free rms measurement is highly appreciated. Among the three basic blocks of rms measuring device the squarer is the most important one. A squaring technique is selected, that permits shaping of the squarer error characteristic in such a way as to achieve waveform-errob free rms measurement. The squarer is designed, fabricated and tested. A hybrid rms measurement using an analog rms computing device and digital display combines the speed of analog techniques and the resolution and ease of measurement of digital techniques. An A/D converter is modified to perform the square-rooting operation. A 10-V rms voltmeter using the developed rms detector is fabricated and tested. The chapters two, three and four analyse the problems involved in rms measurement and present a comparative study of rms computing techniques and devices. The fifth chapter gives the details of the developed rms detector that permits wave-form-error free rms measurement. The sixth chapter, enumerates the the highlights of the thesis and suggests a list of future projects
Resumo:
In dieser Arbeit werden grundlegende Algorithmen für Ore-Algebren in Mathematica realisiert. Dabei entsteht eine Plattform um die speziellen Beschränkungen und Möglichkeiten dieser Algebren insbesondere im Zusammenhang mit Gröbnerbasen an praktischen Beispielen auszuloten. Im Gegensatz zu den existierenden Paketen wird dabei explizit die Struktur der Ore-Algebra benutzt. Kandri-Rody und Weispfenning untersuchten 1990 Verallgemeinerungen von Gröbnerbasen auf Algebren ordnungserhaltender Art (``algebras of solvable type''). Diese verhalten sich so, dass Buchbergers Algorithmus stets eine Gröbnerbasis findet. Es wird ein Beispiel gezeigt, an dem klar wird, dass es mehr Ore-Algebren ordnungserhaltender Art gibt als die in der Literatur stets betrachteten Operator-Algebren. Für Ore-Algebren ordnungserhaltender Art werden Algorithmen zu Gröbnerbasen implementiert. Anschließend wird der Gröbner-Walk für Ore-Algebren untersucht. Der Gröbner-Walk im kommutativen Fall wird mit einem instruktiven Beispiel vorgestellt. Dann wird zum nichtkommutativen Fall übergegangen. Es wird gezeigt, dass die Eigenschaft ordnungserhaltender Art zu sein, auf der Strecke zwischen zwei Ordnungen erhalten bleibt. Eine leichte Modifikation des Walks für Ore-Algebren wird implementiert, die im Erfolgsfall die Basis konvertiert und ansonsten abbricht. Es werden Beispiele angegeben, in denen der modifizierte Walk funktioniert sowie ein Beispiel analysiert, in dem er versagt.
Resumo:
In a similar manner as in some previous papers, where explicit algorithms for finding the differential equations satisfied by holonomic functions were given, in this paper we deal with the space of the q-holonomic functions which are the solutions of linear q-differential equations with polynomial coefficients. The sum, product and the composition with power functions of q-holonomic functions are also q-holonomic and the resulting q-differential equations can be computed algorithmically.
Resumo:
El estudio realizado se basó en la aplicación de la metodología de investigación científica y el análisis exploratorio, cuantitativo de tipo descriptivo de corte transversal, utilizando análisis de relaciones de datos obtenidos en cada una de las IPS y relaciones de perfiles entre de la población atendida. El análisis de la información mostró que las barreras administrativas de acceso a los servicios de Gineco-Obstetricia existen en las IPS estudiadas, caracterizando fundamentalmente aspectos relacionados con la falta de registro de información en las historias clínicas de los pacientes, la falta de registro de la no asistencia de un paciente a una cita, la inexistencia de acciones registradas frente a la identificación e inscripción de la población objeto de control prenatal con clasificación del riesgo, el régimen de afiliación, la ocupación, las acciones correctivas por fallas en los servicios de salud, el registro de fallas en los servicios de salud y el nivel educativo. Es valiosa la información que es registrada en las historias clínicas, sin embargo las IPS que participaron en el presente estudio no le dan la importancia necesaria a las evidencias obtenidas, en especial frente a acciones correctivas. Las relaciones entre las variables como el número de embarazos, el número de controles prenatales, el número de abortos, las IPS, los perfiles de la población de pacientes, la falta de registro de la no asistencia de un paciente a una cita, la clasificación del riesgo, el número de partos, el estado civil, los grupos de edad, el nivel educativo, el registro de fallas, el registro de las acciones correctivas y la ocupación, permiten identificar barreras de acceso administrativas. Se realizó una entrevista a los líderes de los procesos de calidad o directores generales de las IPS que participaron en el presente estudio y se encontró que los parámetros de calidad son claros y que la información existe en diferentes proporciones y protocolos institucionales. No obstante, las IPS no aplican en su totalidad el modelo de los canones establecidos. Es necesario que las instituciones apliquen las normas de calidad en su totalidad lo que seguramente las llevará a lograr mejores resultados.
Resumo:
In this session we look at the sorts of errors that occur in programs, and how we can use different testing and debugging strategies (such as unit testing and inspection) to track them down. We also look at error handling within the program and at how we can use Exceptions to manage errors in a more sophisticated way. These slides are based on Chapter 6 of the Book 'Objects First with BlueJ'
Resumo:
El siguiente trabajo de investigación tiene como propósito la identificación, estudio y análisis de los principales errores de los gerentes colombianos en la administración y dirección de las empresas de hoy, el cual se encuentra dividido en cuatro partes: la primera hace referencia a la conceptualización del tema de investigación a nivel teórico que consiste en la definición que se ha determinado para el significado de error gerencial y dar respuesta a un conjunto de mitos de tipo epistemológicos, es decir, aquellos relacionados con significaciones o nociones que resultan tentativas desde otro punto de vista, pero que en efecto se diferencia del que se ha propuesto originalmente, permitiendo establecer los límites de lo que realmente implica dentro de la investigación. Luego, se realiza una contrastación y análisis teórico de los autores y sus estudios que busquen dar respuesta al problema de investigación enfocado en los principales errores de los gerentes colombianos en la administración y dirección de las organizaciones actuales. En tercera instancia, se muestran los resultados arrojados por la aplicación del instrumento para la detección y análisis de errores gerenciales en las organizaciones o empresas que fueron objeto de estudio con sus respectivos gerentes, de acuerdo con la metodología empleada para dicho caso. Por último, aparece una propuesta de cambio para la corrección de errores gerenciales encontrados y analizados en el contexto gerencial colombiano en pro de la perdurabilidad empresarial.
Resumo:
Interactions using a standard computer mouse can be particularly difficult for novice and older adult users. Tasks that involve positioning the mouse over a target and double-clicking to initiate some action can be a real challenge for many users. Hence, this paper describes a study that investigates the double-click interactions of older and younger adults and presents data that can help inform the development of methods of assistance. Twelve older adults (mean age = 63.9 years) and 12 younger adults (mean age = 20.8 years) performed click and double-click target selections with a computer mouse. Initial results show that older users make approximately twice as many errors as younger users when attempting double-clicks. For both age groups, the largest proportion of errors was due to difficulties with keeping the cursor steady between button presses. Compared with younger adults, older adults experienced more difficulties with performing two button presses within a required time interval. Understanding these interactions better is a step towards improving accessibility, and may provide some suggestions for future directions of research in this area.
Resumo:
Critical loads are the basis for policies controlling emissions of acidic substances in Europe. The implementation of these policies involves large expenditures, and it is reasonable for policymakers to ask what degree of certainty can be attached to the underlying critical load and exceedance estimates. This paper is a literature review of studies which attempt to estimate the uncertainty attached to critical loads. Critical load models and uncertainty analysis are briefly outlined. Most studies have used Monte Carlo analysis of some form to investigate the propagation of uncertainties in the definition of the input parameters through to uncertainties in critical loads. Though the input parameters are often poorly known, the critical load uncertainties are typically surprisingly small because of a "compensation of errors" mechanism. These results depend on the quality of the uncertainty estimates of the input parameters, and a "pedigree" classification for these is proposed. Sensitivity analysis shows that some input parameters are more important in influencing critical load uncertainty than others, but there have not been enough studies to form a general picture. Methods used for dealing with spatial variation are briefly discussed. Application of alternative models to the same site or modifications of existing models can lead to widely differing critical loads, indicating that research into the underlying science needs to continue.
Resumo:
This paper reports an uncertainty analysis of critical loads for acid deposition for a site in southern England, using the Steady State Mass Balance Model. The uncertainty bounds, distribution type and correlation structure for each of the 18 input parameters was considered explicitly, and overall uncertainty estimated by Monte Carlo methods. Estimates of deposition uncertainty were made from measured data and an atmospheric dispersion model, and hence the uncertainty in exceedance could also be calculated. The uncertainties of the calculated critical loads were generally much lower than those of the input parameters due to a "compensation of errors" mechanism - coefficients of variation ranged from 13% for CLmaxN to 37% for CL(A). With 1990 deposition, the probability that the critical load was exceeded was > 0.99; to reduce this probability to 0.50, a 63% reduction in deposition is required; to 0.05, an 82% reduction. With 1997 deposition, which was lower than that in 1990, exceedance probabilities declined and uncertainties in exceedance narrowed as deposition uncertainty had less effect. The parameters contributing most to the uncertainty in critical loads were weathering rates, base cation uptake rates, and choice of critical chemical value, indicating possible research priorities. However, the different critical load parameters were to some extent sensitive to different input parameters. The application of such probabilistic results to environmental regulation is discussed.