753 resultados para Aritmética intervalar


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El programa educativo de "Deporte Inclusivo en la Escuela" (DIE) está formado por una serie de actividades y recursos didácticos dirigidos a los profesores y alumnos de Secundaria Obligatoria y Bachillerato de 18 centros del Comunidad de Madrid y 4 de Barcelona, que busca la participación activa de personas con discapacidad en las actividades deportivas, fomentando los deportes paralímpicos a través de una metodología inclusiva, llevándose a cabo en las clases de Educación Física (EF). Detrás del programa hay una serie de instituciones colaboradoras que apoyan y promueven el programa de distintas formas. En el presente trabajo se analiza la opinión de estas instituciones. Para la obtención de información necesaria se diseñó y se les facilitó un cuestionario ad hoc. Por un lado, una vez obtenidos los datos, el análisis de la información se ha realizado de forma cuantitativa, calculando la media aritmética y la desviación estándar para cada ítem estudiado, y por otro lado se ha analizado de forma cualitativa, codificando y categorizando las respuestas de las preguntas abiertas del cuestionario. Las personas conocedoras del programa que trabajan en las instituciones colaboradoras encargadas de cumplimentar el cuestionario (en total 15) han valorado de forma muy positiva el programa en general, así como los aspectos y materiales didácticos que lo componen, destacando por encima del resto las sesiones de práctica deportiva inclusiva realizadas en los centros, las conferencias de los deportistas paralímpicos y los materiales didácticos desarrollados en el programa. Estos tres aspectos también son muy valorados en materia de promoción deportiva y de concienciación del alumnado y del profesorado sobre la situación de los alumnos con discapacidad, por lo que revierten en las instituciones colaboradoras de forma muy positiva, ya que cumplen con los propios objetivos principales de las mismas. Además, la excelente valoración de la consecución de los objetivos del programa por parte de las instituciones señala que la implementación del programa en la temporada 2013/2014 se ha realizado de forma eficaz y constituye la línea a seguir para la continuidad del programa en los próximos años.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto tiene como objetivo la implementación de un sistema capaz de analizar el movimiento corporal a partir de unos puntos cinemáticos. Estos puntos cinemáticos se obtienen con un programa previo y se captan con la cámara kinect. Para ello el primer paso es realizar un estudio sobre las técnicas y conocimientos existentes relacionados con el movimiento de las personas. Se sabe que Rudolph Laban fue uno de sus mayores exponentes y gracias a sus observaciones se establece una relación entre la personalidad, el estado anímico y la forma de moverse de un individuo. Laban acuñó el término esfuerzo, que hace referencia al modo en que se administra la energía que genera el movimiento y de qué manera se modula en las secuencias, es una manera de describir la intención de las expresiones internas. El esfuerzo se divide en 4 categorías: peso, espacio, tiempo y flujo, y cada una de estas categorías tiene una polaridad denominada elemento de esfuerzo. Con estos 8 elementos de esfuerzo un movimiento queda caracterizado. Para poder cuantificar los citados elementos de esfuerzo se buscan movimientos que representen a alguno de ellos. Los movimientos se graban con la cámara kinect y se guardan sus valores en un archivo csv. Para el procesado de estos datos se establece que el sistema más adecuado es una red neuronal debido a su flexibilidad y capacidad a la hora de procesar entradas no lineales. Para la implementación de la misma se requiere un amplio estudio que incluye: topologías, funciones de activación, tipos de aprendizaje, algoritmos de entrenamiento entre otros. Se decide que la red tenga dos capas ocultas, para mejor procesado de los datos, que sea estática, siga un proceso de cálculo hacia delante (Feedforward) y el algoritmo por el que se rija su aprendizaje sea el de retropropagación (Backpropagation) En una red estática las entradas han de ser valores fijos, es decir, no pueden variar en el tiempo por lo que habrá que implementar un programa intermedio que haga una media aritmética de los valores. Una segunda prueba con la misma red trata de comprobar si sería capaz de reconocer movimientos que estuvieran caracterizados por más de un elemento de esfuerzo. Para ello se vuelven a grabar los movimientos, esta vez en parejas de dos, y el resto del proceso es igual. ABSTRACT. The aim of this project is the implementation of a system able to analyze body movement from cinematic data. This cinematic data was obtained with a previous program. The first step is carrying out a study about the techniques and knowledge existing nowadays related to people movement. It is known that Rudolf Laban was one the greatest exponents of this field and thanks to his observations a relation between personality, mood and the way the person moves was made. Laban coined the term effort, that refers to the way energy generated from a movement is managed and how it is modulated in the sequence, this is a method of describing the inner intention of the person. The effort is divided into 4 categories: weight, space, time and flow, and each of these categories have 2 polarities named elements of effort. These 8 elements typify a movement. We look for movements that are made of these elements so we can quantify them. The movements are recorded with the kinect camera and saved in a csv file. In order to process this data a neural network is chosen owe to its flexibility and capability of processing non-linear inputs. For its implementation it is required a wide study regarding: topology, activation functions, different types of learning methods and training algorithms among others. The neural network for this project will have 2 hidden layers, it will be static and follow a feedforward process ruled by backpropagation. In a static net the inputs must be fixed, this means they cannot vary in time, so we will have to implement an intermediate program to calculate the average of our data. A second test for our net will be checking its ability to recognize more than one effort element in just one movement. In order to do this all the movements are recorded again but this time in pairs, the rest of the process remains the same.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La existencia de sistemas y teorías que preten den establecer un método objetivo y transferible defienden una postura "científica" en la respuesta arquitectónica sin emplear elementos arbitrarios ni intuitivos propios de ?lo artístico-simbólico?. Estas teorías defienden el uso de distintos repertorios, unas veces analizando los patrones históricos inmanentes a la arquitectura en su dimensión espacio-temporal, otros recurren a la pura combinatoria aritmética de distintas soluciones a un mismo problema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Alison Margaret Gill y Peter Denham Smithson son, o eran, ambos murieron hace ya algunos años, dos arquitectos. Así dicho, esto suena a obviedad. Sin embargo no lo es, porque siempre han sido compactados en una unidad proyectual, bien bajo las siglas Alison y Peter Smithson, o bien, más puntualmente todavía, como los Smithson. Cuando Leibniz en 1696 le dice a la princesa electora Sofía que en algo tan puntual y homogéneo aparentemente como una gota de agua, vista al microscopio, resulta haber más de un millón de animales vivos, se puede empezar a vislumbrar el resultado de la Tesis. El resultado de este trabajo no se contempla un millón de partículas pero sí dos. La obra de Alison y Peter Smithson esta conformada desde su inicio probablemente por la particularidad de que en ella intervienen tanto Gill como Smithson, aunque cada uno sea en mayor o menor medida la o el responsable de un proyecto. Puesto al microscopio el proyecto del que se ocupa la Tesis, el concurso de 1953 para la ampliación de la Universidad de Sheffield, se estima que está compuesto de dos partes diferentes y que como Los Smithson o como una gota de agua, su unidad es una mera convención, una forma de designarlo y tratarlo, que falsea en algo su apreciación, aunque, como se verá, es lo que provoca el extraño efecto que como imagen ejerce. El Capítulo I descubre la duplicidad. Reyner Banham fijó en 1955, en el artículo The New Brutalism, el modo de encarar el proyecto de Sheffield cuando proyectó sobre él lo más novedoso que en el campo de la pintura ocurría en ese momento, el Art Autre. Michel Tapié ve en el informalismo presente en las obras que él engloba como un <> rasgos que puede presentar a la luz de conceptos que extrae de Riemann, matemático del s. XIX, introductor de una nueva geometría. La Tesis remonta por tanto hasta Riemann, a la búsqueda del concepto del que penden tanto Tapié como Banham. El concepto es la variedad continua; un conjunto, cuyos elementos pueden recorrer la extensión de la variedad mediante una deformación continua, como si dijéramos, diluyéndose unos en otros sin cortes entre sí. Los ejemplos del informalismo serían, por tanto, los puntos de la variedad, formas inestables o detenciones aleatorias en este transitar continuo de un mismo objeto. La visión de cuerpos en cortes aleatorios a la evolución otorga a sus formas cualesquiera la condición de extrañeza o perturbación, produciendo un impacto en la mente que lo graba instintivamente en la materia de la memoria. Así, es la memorabilidad, dada precisamente por el impacto que supone ver cuerpos en estado evolutivo, sin una forma precisa, la propiedad que gobierna a los objetos que caen bajo el Art Autre, y es la memorabilidad el rasgo distintivo de Sheffield para Banham. Este sentido evolutivo que se puede asociar a los elementos de una variedad entra en consonancia con una variedad de estados en evolución en el marco de las especies orgánicas. No sólo como individuo sino también como especie. La coincidencia no sólo es formal, también es temporal entre el descubrimiento de Riemann de la variedad continua y el de Darwin de la evolución de las especies. Ve Darwin que algunos ejemplares presentan en su cuerpo conformaciones normales de especies diferentes, que puede entenderse como una anormalidad o defecto evolutivo, lo que él llama <>. Un ejemplar monstruoso no es capaz de abrir una escisión de la variedad y en este sentido rompe su cadena evolutiva. Es un elemento, por tanto extraño a la variedad. Lo peculiar que expone Darwin, es que la monstruosidad puede ser provocada artificialmente por motivos estéticos, como ocurre en determinados animales o plantas ornamentales. Bien, esto es exactamente lo que descubre la Tesis en el proyecto de Sheffield. La unión en un solo proyecto de dos conformaciones de naturaleza diferente. El Capítulo II indaga en la naturaleza dual de Sheffield. Y la descubre en la aplicación de dos principios que tienen múltiples derivas, pero interesante en una en particular, referida al espacio. Uno es el Principio de Posición. Bajo él se contempla la situación del concurso dada en su globalidad, en una visión totalizadora que permite buscar y destacar posiciones singulares y tener un control preciso del proyecto desde el inicio. Se dice que es la opción normal en arquitectura comprender el espacio en su conjunto y que el trazado de ejes y el reparto del espacio obedecen a este principio. Son así vistos la propuesta ganadora del equipo GMW y fundamentalmente el trazado de ejes en la obra de Le Corbusier. Una parte de Sheffield es un producto típico de este modo de proceder. Hay un segundo principio que es el Principio de Transición Continua. En los términos expuestos para la variedad de Riemann, sería como si en lugar de ver cuerpos en estados concretos, por deformados que pudieran ser, nos introdujéramos dentro de la propia variedad acoplándonos al curso de la evolución misma, en un acto de unión interior con la marcha de la evolución. Para ejercer esta acción se toma como punto inicial el extremo del edificio universitario existente, el Firth Court, y se lleva cabo un estiramiento continuo. En esto radica lo que la Tesis distingue como la ampliación, el cuerpo que se enrosca paulatinamente. Para exponer este concepto, la Tesis se apoya en un ejercicio llevado a cabo por Raymond Unwin en Hampstead, el close, o estiramiento lateral del borde de un viario para hacer surgir el espacio útil residencial. A partir del concepto de close, se deriva en la urbanística americana de principios del s. XX el concepto de cluster, que pasa a ser uno de los argumentos principales de la teoría de Alison y de Peter Smithson en los años 50. El Capítulo III plantea la dificultad de mantener la dualidad de Sheffield a primeros de los 50, sometido el proyecto de arquitectura a la unicidad que impone el criterio hegemónico de Rudolf Wittkower desde “Los Fundamentos de la Arquitectura en la Edad del Humanismo”. Como en el Capítulo I, la obligación que se traza la Tesis es remontar los orígenes de las cosas que se tratan, y en este caso, entrar en las fuentes del principio proporcional. Se descubren así los fundamentos de la proporción aritmética y geométrica en el seno del pitagorismo, sus problemas y su evolución. La postura de los dos arquitectos frente a Wittkower es de admiración, pero también de libertad. Esta libertad suya es la que defiende la Tesis. Cotejando lo que da de sí la arquitectura basada en los principios proporcionales con otra arquitectura estancada en el paso del Renacimiento al Barroco como es la arquitectura perspectiva y proyectiva, la arquitectura oblicua, recuperada a la sazón por medio de la intervención en la Tesis de Panofsky, se dirimen aspectos colaterales pero fundamentales de una renovación de los planteamientos: hay planteamientos que se dicen esencialistas y objetivos y otros funcionales y que derivan en subjetivos y relacionales. Sobre estas dos marcos de categorías el propósito que persigue la Tesis es dar cuenta de los dos principios que rigen lo visto en el Capítulo II, el Principio de Posición y el Principio de Transición Continua, responsables ambos, al 50%, de la monstruosidad detectada en Sheffield, que no es negativa, sino, como decía Darwin, la combinación en un solo cuerpo de conformaciones normales en animales de especies diferentes, incluso con fines estéticos. En Sheffield existe, y esta dibujada, la figura de una cabeza escultural con un doble rostro. Todo el trabajo de la Tesis se encamina, en definitiva, a explicar, con toda la claridad y extensión que me ha sido posible, en qué consiste ese doble rostro. ABSTRACT Peter and Alison Smithson’s work is, is from its start, very influenced by both Alison Margaret Gill and Peter Denham Smithson. The matter of study of this Thesis, the 1953 competition for the expansion of the University of Sheffield, estimated after its exam, which is composed by two different parts, which, together produce a strange effect as an image. Reyner Banham in 1955 described the image in his article “The New Brutalism” as the key argument (most iconic) for the Sheffield’s project. The way his image powerfully influences sensitivity, by perturbation, makes this a singular and memorable image. This feature, only present in Sheffield, over any other building of the time, even from the same architects, allow Banham to associate the project to Art Autre, thought by Michel Tapié as a new artistic movement, to which Sheffield will belong, in the architecture part. Tapié sees in the informalism of works considered Art Autre some aspects that can bring concepts he extracts from Riemann, XIX Century mathematician, father of the new geometry. This Thesis discovers Riemann’s concept of continuous variety, a set whose elements are able to go through variety by a continuous deformation, diluting themselves without touching each other. Examples of informalism would be, points of that variety, unstable forms or random detentions in the continuous transit of the same object. Therefore, the condition of memorability comes precisely from the impact that seeing bodies in state of evolution creates. That evolutive sense that can be associated to elements of a variety, comes together with a variety of states of evolution in the world of organic species. Not only as an individual, but as well as a species. Coincidence between Riemann and Darwin’s discoveries is not only formal, but as well temporary. Darwin observes that some individuals of concrete species present on their bodies some features, typical of other species, which may be interpreted as evolutive failure. But the most peculiar part of what Darwin exposes is that monstrosity can indeed be artificially made for aesthetical purposes, like it happens in certain animals and plants. Well, this is what the Thesis discovers in Sheffield’s project. The union in a single project of two different nature forms, of which none on the parts is a deformation of the other, but they are both irreducible. Once both parts are collated, a new system which adapts well is discovered. It is a system created by Leibniz in the XVII Century, created to distinguish to principles that clear the difference between the equation methods and differential calculus. This principles are the Principle of Position and the Principle of Continuity. This two principles, translated to the spatial analysis field are key for the two parts of the project. On the one hand, the part developing in a lineal axis belongs to the Principle of Position. This means that that there is a global vision of space after which it is decided which operation to follow, which in this case consists of establishing an axis between two singular positions of the university area. The part which is being deformed while it goes is studied as a continuous action of stretching an existing building, the Firth Court, in which there is no previous spatial analysis. The only way to understand and to explain this action is by the Principle of Continuity. So, all in all, the Thesis changes the view of Sheffield from an Art Autre work to a “monstrosity”, without the negative meaning of it, just as a combination of two different nature formations, which, at the same time, justifies its power as iconic image. Finally, I would like to point out that in the Sheffield’s project there is (drawn and also physically) a sculptural head which has the feature of representing both, a man and a woman’s face. All the work of this Thesis leads to explaining the double nature of the project, taking this double expression head as inspiration.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El uso de aritmética de punto fijo es una opción de diseño muy extendida en sistemas con fuertes restricciones de área, consumo o rendimiento. Para producir implementaciones donde los costes se minimicen sin impactar negativamente en la precisión de los resultados debemos llevar a cabo una asignación cuidadosa de anchuras de palabra. Encontrar la combinación óptima de anchuras de palabra en coma fija para un sistema dado es un problema combinatorio NP-hard al que los diseñadores dedican entre el 25 y el 50 % del ciclo de diseño. Las plataformas hardware reconfigurables, como son las FPGAs, también se benefician de las ventajas que ofrece la aritmética de coma fija, ya que éstas compensan las frecuencias de reloj más bajas y el uso más ineficiente del hardware que hacen estas plataformas respecto a los ASICs. A medida que las FPGAs se popularizan para su uso en computación científica los diseños aumentan de tamaño y complejidad hasta llegar al punto en que no pueden ser manejados eficientemente por las técnicas actuales de modelado de señal y ruido de cuantificación y de optimización de anchura de palabra. En esta Tesis Doctoral exploramos distintos aspectos del problema de la cuantificación y presentamos nuevas metodologías para cada uno de ellos: Las técnicas basadas en extensiones de intervalos han permitido obtener modelos de propagación de señal y ruido de cuantificación muy precisos en sistemas con operaciones no lineales. Nosotros llevamos esta aproximación un paso más allá introduciendo elementos de Multi-Element Generalized Polynomial Chaos (ME-gPC) y combinándolos con una técnica moderna basada en Modified Affine Arithmetic (MAA) estadístico para así modelar sistemas que contienen estructuras de control de flujo. Nuestra metodología genera los distintos caminos de ejecución automáticamente, determina las regiones del dominio de entrada que ejercitarán cada uno de ellos y extrae los momentos estadísticos del sistema a partir de dichas soluciones parciales. Utilizamos esta técnica para estimar tanto el rango dinámico como el ruido de redondeo en sistemas con las ya mencionadas estructuras de control de flujo y mostramos la precisión de nuestra aproximación, que en determinados casos de uso con operadores no lineales llega a tener tan solo una desviación del 0.04% con respecto a los valores de referencia obtenidos mediante simulación. Un inconveniente conocido de las técnicas basadas en extensiones de intervalos es la explosión combinacional de términos a medida que el tamaño de los sistemas a estudiar crece, lo cual conlleva problemas de escalabilidad. Para afrontar este problema presen tamos una técnica de inyección de ruidos agrupados que hace grupos con las señales del sistema, introduce las fuentes de ruido para cada uno de los grupos por separado y finalmente combina los resultados de cada uno de ellos. De esta forma, el número de fuentes de ruido queda controlado en cada momento y, debido a ello, la explosión combinatoria se minimiza. También presentamos un algoritmo de particionado multi-vía destinado a minimizar la desviación de los resultados a causa de la pérdida de correlación entre términos de ruido con el objetivo de mantener los resultados tan precisos como sea posible. La presente Tesis Doctoral también aborda el desarrollo de metodologías de optimización de anchura de palabra basadas en simulaciones de Monte-Cario que se ejecuten en tiempos razonables. Para ello presentamos dos nuevas técnicas que exploran la reducción del tiempo de ejecución desde distintos ángulos: En primer lugar, el método interpolativo aplica un interpolador sencillo pero preciso para estimar la sensibilidad de cada señal, y que es usado después durante la etapa de optimización. En segundo lugar, el método incremental gira en torno al hecho de que, aunque es estrictamente necesario mantener un intervalo de confianza dado para los resultados finales de nuestra búsqueda, podemos emplear niveles de confianza más relajados, lo cual deriva en un menor número de pruebas por simulación, en las etapas iniciales de la búsqueda, cuando todavía estamos lejos de las soluciones optimizadas. Mediante estas dos aproximaciones demostramos que podemos acelerar el tiempo de ejecución de los algoritmos clásicos de búsqueda voraz en factores de hasta x240 para problemas de tamaño pequeño/mediano. Finalmente, este libro presenta HOPLITE, una infraestructura de cuantificación automatizada, flexible y modular que incluye la implementación de las técnicas anteriores y se proporciona de forma pública. Su objetivo es ofrecer a desabolladores e investigadores un entorno común para prototipar y verificar nuevas metodologías de cuantificación de forma sencilla. Describimos el flujo de trabajo, justificamos las decisiones de diseño tomadas, explicamos su API pública y hacemos una demostración paso a paso de su funcionamiento. Además mostramos, a través de un ejemplo sencillo, la forma en que conectar nuevas extensiones a la herramienta con las interfaces ya existentes para poder así expandir y mejorar las capacidades de HOPLITE. ABSTRACT Using fixed-point arithmetic is one of the most common design choices for systems where area, power or throughput are heavily constrained. In order to produce implementations where the cost is minimized without negatively impacting the accuracy of the results, a careful assignment of word-lengths is required. The problem of finding the optimal combination of fixed-point word-lengths for a given system is a combinatorial NP-hard problem to which developers devote between 25 and 50% of the design-cycle time. Reconfigurable hardware platforms such as FPGAs also benefit of the advantages of fixed-point arithmetic, as it compensates for the slower clock frequencies and less efficient area utilization of the hardware platform with respect to ASICs. As FPGAs become commonly used for scientific computation, designs constantly grow larger and more complex, up to the point where they cannot be handled efficiently by current signal and quantization noise modelling and word-length optimization methodologies. In this Ph.D. Thesis we explore different aspects of the quantization problem and we present new methodologies for each of them: The techniques based on extensions of intervals have allowed to obtain accurate models of the signal and quantization noise propagation in systems with non-linear operations. We take this approach a step further by introducing elements of MultiElement Generalized Polynomial Chaos (ME-gPC) and combining them with an stateof- the-art Statistical Modified Affine Arithmetic (MAA) based methodology in order to model systems that contain control-flow structures. Our methodology produces the different execution paths automatically, determines the regions of the input domain that will exercise them, and extracts the system statistical moments from the partial results. We use this technique to estimate both the dynamic range and the round-off noise in systems with the aforementioned control-flow structures. We show the good accuracy of our approach, which in some case studies with non-linear operators shows a 0.04 % deviation respect to the simulation-based reference values. A known drawback of the techniques based on extensions of intervals is the combinatorial explosion of terms as the size of the targeted systems grows, which leads to scalability problems. To address this issue we present a clustered noise injection technique that groups the signals in the system, introduces the noise terms in each group independently and then combines the results at the end. In this way, the number of noise sources in the system at a given time is controlled and, because of this, the combinato rial explosion is minimized. We also present a multi-way partitioning algorithm aimed at minimizing the deviation of the results due to the loss of correlation between noise terms, in order to keep the results as accurate as possible. This Ph.D. Thesis also covers the development of methodologies for word-length optimization based on Monte-Carlo simulations in reasonable times. We do so by presenting two novel techniques that explore the reduction of the execution times approaching the problem in two different ways: First, the interpolative method applies a simple but precise interpolator to estimate the sensitivity of each signal, which is later used to guide the optimization effort. Second, the incremental method revolves on the fact that, although we strictly need to guarantee a certain confidence level in the simulations for the final results of the optimization process, we can do it with more relaxed levels, which in turn implies using a considerably smaller amount of samples, in the initial stages of the process, when we are still far from the optimized solution. Through these two approaches we demonstrate that the execution time of classical greedy techniques can be accelerated by factors of up to ×240 for small/medium sized problems. Finally, this book introduces HOPLITE, an automated, flexible and modular framework for quantization that includes the implementation of the previous techniques and is provided for public access. The aim is to offer a common ground for developers and researches for prototyping and verifying new techniques for system modelling and word-length optimization easily. We describe its work flow, justifying the taken design decisions, explain its public API and we do a step-by-step demonstration of its execution. We also show, through an example, the way new extensions to the flow should be connected to the existing interfaces in order to expand and improve the capabilities of HOPLITE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo investiga evidências da influência de uma intervenção psicomotora lúdica na construção do pensamento operatório concreto e desempenho neuromotor de alunos com dificuldade de aprendizagem da 2ª série do ensino fundamental, de escola pública do Estado de São Paulo. Utiliza-se de método experimental. Manipula a intervenção psicomotora lúdica, (Variável Independente-VI), com o objetivo de verificar a sua possível influência no desempenho cognitivo relativo a noções de Conservação, Classificação, Seriação e Aritmética, assim como no neuromotor relativo a Agilidade e Orientação Direita-Esquerda (Variáveis Dependentes - VDs) - totalizando 6 VDs. A amostra compõe-se por 18 escolares, na faixa etária de 7 a 11 anos, de ambos os sexos, organizados em dois grupos: experimental (N=9) e controle (N=9). O procedimento experimental desenvolve-se em 16 sessões, constando de três etapas. Aos dois grupos são aplicados, individualmente, pré-teste (1ª etapa) e pós-teste (3ª etapa), constando de duas sessões individuais em cada etapa, com a utilização dos seguintes instrumentos: Provas Operatórias de Piaget, teste Piaget-Head de Orientação Direita-Esquerda e subteste de Aritmética do teste de Desempenho Escolar de Stein, teste de Shuttle Run . A 2ª etapa, exclusiva do grupo experimental, consta da intervenção psicomotora lúdica, em 12 sessões grupais de 50 minutos cada. Utilizou-se da prova de Wilcoxon, para comparação dos resultados entre os grupos. Os resultados referentes às noções de Classificação ( p=0,010), Seriação (p=0,034), Aritmética (p=0,157) e Orientação Direita- Esquerda (p=0,007), indicam que ocorreu uma diferença significativa estatisticamente, considerando-se que os participantes apresentaram desempenho superior nos pós-testes. Nas demais provas, foi observado melhor desempenho nos dois grupos, o que, portanto, não pode ser atribuído à intervenção. Conclui-se que o objetivo do trabalho foi atingido, visto que o programa mostrou-se eficiente para desenvolver o pensamento operatório e o neuromotor em relação a Orientação Direita-Esquerda dos participantes.(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo investiga evidências da influência de uma intervenção psicomotora lúdica na construção do pensamento operatório concreto e desempenho neuromotor de alunos com dificuldade de aprendizagem da 2ª série do ensino fundamental, de escola pública do Estado de São Paulo. Utiliza-se de método experimental. Manipula a intervenção psicomotora lúdica, (Variável Independente-VI), com o objetivo de verificar a sua possível influência no desempenho cognitivo relativo a noções de Conservação, Classificação, Seriação e Aritmética, assim como no neuromotor relativo a Agilidade e Orientação Direita-Esquerda (Variáveis Dependentes - VDs) - totalizando 6 VDs. A amostra compõe-se por 18 escolares, na faixa etária de 7 a 11 anos, de ambos os sexos, organizados em dois grupos: experimental (N=9) e controle (N=9). O procedimento experimental desenvolve-se em 16 sessões, constando de três etapas. Aos dois grupos são aplicados, individualmente, pré-teste (1ª etapa) e pós-teste (3ª etapa), constando de duas sessões individuais em cada etapa, com a utilização dos seguintes instrumentos: Provas Operatórias de Piaget, teste Piaget-Head de Orientação Direita-Esquerda e subteste de Aritmética do teste de Desempenho Escolar de Stein, teste de Shuttle Run . A 2ª etapa, exclusiva do grupo experimental, consta da intervenção psicomotora lúdica, em 12 sessões grupais de 50 minutos cada. Utilizou-se da prova de Wilcoxon, para comparação dos resultados entre os grupos. Os resultados referentes às noções de Classificação ( p=0,010), Seriação (p=0,034), Aritmética (p=0,157) e Orientação Direita- Esquerda (p=0,007), indicam que ocorreu uma diferença significativa estatisticamente, considerando-se que os participantes apresentaram desempenho superior nos pós-testes. Nas demais provas, foi observado melhor desempenho nos dois grupos, o que, portanto, não pode ser atribuído à intervenção. Conclui-se que o objetivo do trabalho foi atingido, visto que o programa mostrou-se eficiente para desenvolver o pensamento operatório e o neuromotor em relação a Orientação Direita-Esquerda dos participantes.(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo tem como objetivo principal confirmar definição conceitual apresentada pela Bovespa e o mercado financeiro brasileiro dos perfis dos fundos de investimentos brasileiros adotando como técnica estatística a análise de agrupamentos, sendo que os perfis são: agressivo, moderado e conservador. Outro objetivo foi verificar se a crise financeira mundial interferiu nos resultados dos fundos de investimentos. Essa pesquisa permite compreender o perfil dos fundos de investimentos ofertados no mercado financeiro brasileiro e também disponibilizar a aproximação da academia com o mercado. Os fundos de investimentos foram selecionados do banco de dados da empresa Quantum Axis, sendo que, extraiu-se uma população contendo 104 fundos de investimentos. A pesquisa divide-se em 6 análises, sendo que a sexta análise compreende o intervalo de tempo de 02/12/2003 à 28/11/2008 e as outras 5 são intervalos anuais. As observações da população do estudo são taxas efetivas diárias de retorno. Utiliza-se a variável risco e a variável retorno dos fundos de investimentos para formação dos grupos. Nas análises de agrupamentos adota-se o método de aglomeração k-médias. Calcula-se o risco pelo desvio padrão e o retorno pela média aritmética dos fundos de investimentos. A pesquisa mostra que os fundos de investimentos ofertados no mercado financeiro brasileiro foram classificados em três perfis diferentes, observa-se também que os resultados dos fundos de investimentos foram afetados pela crise financeira mundial.(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo tem como objetivo principal confirmar definição conceitual apresentada pela Bovespa e o mercado financeiro brasileiro dos perfis dos fundos de investimentos brasileiros adotando como técnica estatística a análise de agrupamentos, sendo que os perfis são: agressivo, moderado e conservador. Outro objetivo foi verificar se a crise financeira mundial interferiu nos resultados dos fundos de investimentos. Essa pesquisa permite compreender o perfil dos fundos de investimentos ofertados no mercado financeiro brasileiro e também disponibilizar a aproximação da academia com o mercado. Os fundos de investimentos foram selecionados do banco de dados da empresa Quantum Axis, sendo que, extraiu-se uma população contendo 104 fundos de investimentos. A pesquisa divide-se em 6 análises, sendo que a sexta análise compreende o intervalo de tempo de 02/12/2003 à 28/11/2008 e as outras 5 são intervalos anuais. As observações da população do estudo são taxas efetivas diárias de retorno. Utiliza-se a variável risco e a variável retorno dos fundos de investimentos para formação dos grupos. Nas análises de agrupamentos adota-se o método de aglomeração k-médias. Calcula-se o risco pelo desvio padrão e o retorno pela média aritmética dos fundos de investimentos. A pesquisa mostra que os fundos de investimentos ofertados no mercado financeiro brasileiro foram classificados em três perfis diferentes, observa-se também que os resultados dos fundos de investimentos foram afetados pela crise financeira mundial.(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dislexia é uma condição neurológica associada a deficiências na aquisição e processamento da linguagem. Variando em graus de gravidade, que se manifesta por dificuldades na linguagem receptiva e expressiva, incluindo processamento fonológico, na leitura, escrita, ortografia, caligrafia, e por vezes em aritmética. Dislexia é uma condição hereditária associada a diversas anormalidades neurológicas em áreas corticais visuais e auditivas. Uma das mais influentes teorias para explicar os sintomas disléxicos é a chamada hipótese magnocelular. Segundo esta hipótese, a dislexia resulta de processamento de informações visuais anormais, devido principalmente a disfunção no sistema magnocelular. Esta dissertação explora esta hipótese comparando quinze indivíduos com dislexia e quinze controles, com idades compreendidas entre os 18 e os 30 anos através de dois testes visuais de atenção. Ambos os experimentos avaliam tempo de reação a estímulos que apareciam em toda tela do computador, enquanto os indivíduos permaneciam instalados, com a cabeça apoiada por um chin rest e com os olhos fixos em um alvo central. O experimento I consistiu de estímulos (pequenos círculos) brancos apresentados em um fundo preto. No experimento II, a mesma metodologia foi utilizada, mas agora com os estímulos (pequenos círculos) verdes sobre um fundo vermelho. Os resultados foram analisados levando em consideração os quadrantes onde os estímulos foram apresentados. Pacientes e controles não diferiram em relação ao tempo de reação a estímulos apresentados no campo visual inferior, em comparação ao quadrante superior de um mesmo indivíduo. Considerando todos os quadrantes, disléxicos tiveram tempo de reação mais lento no experimento I, mas apresentaram tempos de reação semelhantes aos controles no experimento II. Estes resultados são compatíveis com anormalidades no sistema magnocelular. As implicações destes achados para a fisiopatologia da dislexia, bem como para o seu tratamento devem ser mais discutidos.(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dislexia é uma condição neurológica associada a deficiências na aquisição e processamento da linguagem. Variando em graus de gravidade, que se manifesta por dificuldades na linguagem receptiva e expressiva, incluindo processamento fonológico, na leitura, escrita, ortografia, caligrafia, e por vezes em aritmética. Dislexia é uma condição hereditária associada a diversas anormalidades neurológicas em áreas corticais visuais e auditivas. Uma das mais influentes teorias para explicar os sintomas disléxicos é a chamada hipótese magnocelular. Segundo esta hipótese, a dislexia resulta de processamento de informações visuais anormais, devido principalmente a disfunção no sistema magnocelular. Esta dissertação explora esta hipótese comparando quinze indivíduos com dislexia e quinze controles, com idades compreendidas entre os 18 e os 30 anos através de dois testes visuais de atenção. Ambos os experimentos avaliam tempo de reação a estímulos que apareciam em toda tela do computador, enquanto os indivíduos permaneciam instalados, com a cabeça apoiada por um chin rest e com os olhos fixos em um alvo central. O experimento I consistiu de estímulos (pequenos círculos) brancos apresentados em um fundo preto. No experimento II, a mesma metodologia foi utilizada, mas agora com os estímulos (pequenos círculos) verdes sobre um fundo vermelho. Os resultados foram analisados levando em consideração os quadrantes onde os estímulos foram apresentados. Pacientes e controles não diferiram em relação ao tempo de reação a estímulos apresentados no campo visual inferior, em comparação ao quadrante superior de um mesmo indivíduo. Considerando todos os quadrantes, disléxicos tiveram tempo de reação mais lento no experimento I, mas apresentaram tempos de reação semelhantes aos controles no experimento II. Estes resultados são compatíveis com anormalidades no sistema magnocelular. As implicações destes achados para a fisiopatologia da dislexia, bem como para o seu tratamento devem ser mais discutidos.(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

INTRODUÇÃO: Leishmaniose visceral (LV) é uma doença negligenciada que afeta milhões de pessoas no mundo e que constitui um grave problema de saúde pública. OBJETIVOS: Descrever no tempo e no espaço, a dispersão de Lutzomyia longipalpis e a expansão da LV no estado de São Paulo (SP); identificar fatores associados a estes processos. MÉTODOS: Foram realizados estudos descritivos, ecológicos e de análise de sobrevida. Informações sobre o vetor e os casos foram obtidas na Superintendência de Controle de Endemias e no Sistema de Informações de Agravos de Notificação para o período de 1997 a 2014. A área de estudo foi composta pelos 645 municípios de SP. Foram produzidos mapas temáticos e de fluxo e calcularam-se incidência, mortalidade e letalidade por LV em humanos (LVH). Utilizou-se a técnica de análise de sobrevida (Curvas de Kaplan-Meier e Regressão de Cox) para a identificação de fatores associados à dispersão do vetor e expansão da LV. RESULTADOS: A partir da detecção de Lu. longipalpis em Araçatuba em 1997, deram-se a ocorrência do primeiro caso canino (LVC) (1998) e o primeiro caso humano (LVH) autóctones (1999) em SP. Até 2014, foi detectada a presença do vetor em 173 (26,8 por cento ) municípios, LVC em 108 (16,7 por cento ) e LVH em 84 (13 por cento ). A expansão dos três fenômenos ocorreu no sentido noroeste para sudeste e se deram a velocidades constantes. Na região de São José do Rio Preto, a dispersão do vetor deu-se por vizinhança com municípios anteriormente infestados, a expansão da LV relacionou-se com os municípios sede das microrregiões e a doença ocorreu com maior intensidade nas áreas periféricas dos municípios. A presença da Rodovia Marechal Rondon e a divisa com o Mato Grosso do Sul foram fatores associados à ocorrência dos três eventos, assim como a presença da Rodovia Euclides da Cunha para presença do vetor e casos caninos, e, presença de presídios para casos humanos. CONCLUSÕES: A dispersão do vetor e da LV em SP iniciou-se, a partir de 1997, próximo à divisa com o estado do Mato Grosso do Sul, avançou no sentido noroeste para sudeste, na trajetória da rodovia Marechal Rondon, e ocorreu em progressão aritmética, com as sedes das microrregiões de SP tendo papel preponderante neste processo. A ocorrência autóctone de LVC e LVH iniciou-se na sequência da detecção de Lu. longipalpis em Araçatuba e de seu espalhamento por SP e não a partir dos locais onde anteriormente ele já estava presente. O uso da análise de sobrevida permitiu identificar fatores associados à dispersão do vetor e a expansão da LV. Os resultados deste estudo podem ser úteis para aprimorar as atividades de vigilância e controle da LV, no sentido de retardar sua expansão e/ou de mitigar seus efeitos, quando de sua ocorrência.