443 resultados para CEREBRO
Resumo:
Estudio descriptivo de los cambios neurológicos y maduración en el cerebro adolescente y su influencia en el aprendizaje, con la finalidad de diseñar una estrategia de enseñanza que tenga como objetivos hacer que el alumno aprenda, desarrolle y practique competencias (habilidades, actitudes y valores) ciudadanas y científicas sociales a través de un juego deportivo educativo para ser aplicado en el nivel de Educación Media Superior. La propuesta responde a las exigencias que se le demandan a la población mexicana por la Organización para la Cooperación y el Desarrollo Económicos (OCDE) para incorporarse al neocapitalismo. Se tomará como base un modelo deportivo cimentado en progresiones y con una visión paidológica, llamado 'Enseñando Juegos para su Entendimiento' (Teaching Games for Understanding (TGFU)). El contenido a desarrollar se centra en la Unidad Cuatro de la materia de Sociología que se imparte en sexto año de la Escuela Nacional Preparatoria (ENP) titulada 'Problemática social'. Concretamente se trabajará sobre el tema de 'Procesos Sociales que Construyen el Riesgos por Desastre Natural', tomando como base los cuatro impulsores sociales de riesgo desarrollados por el DARA en su documento Indice de Reducción del Riesgo (IRR), que son: degradación ambiental; condiciones socioeconómicas negativas; inadecuada planificación del territorio y uso incorrecto del suelo; falta de gobernabilidad
Resumo:
Este trabajo pretende sumar, a la rehabilitación de pacientes lesionados del sistema nervioso, una propuesta diferente a la visión clásica de tratamiento. Simplemente tomaremos del cerebro una de sus habilidades innatas, poniéndola a favor de nuestros pacientes. "La Plasticidad neuronal", que siempre se le atribuyó al cerebro en edades tempranas donde hay nuevas conexiones sinápticas y una mielinización creciente, hoy sabemos que aunque más limitada que en niños, permanece presente en la edad adulta. Los procesos mediante los cuales el cerebro del niño e incluso el cerebro adulto es capaz de repararse y reorganizarse han sido motivo de investigación en los últimos años y a pesar de su infinita complejidad los avances son alentadores. Aquí trataremos de poner en evidencia los resultados en el proceso de rehabilitación, la enseñanza de ejercicios dinámicos como parte del plan de trabajo. La indicación de movimientos a una persona Lesionada en el SNC, cuyo cerebro a pesar de la lesión, está en condiciones de realizar; retarda o enlentece el proceso de recuperación. Esto se debe a la ambigüedad en la dirección de la plasticidad neuronal, perpetuar una habilidad ya adquirida con repeticiones, estimula la plasticidad negativa o mal adaptativa, o sea el cerebro se vuelve "perezoso" y tiende a quedarse con las habilidades que tiene. La inclusión de ejercicios dinámicos dentro del plan de rehabilitación (dada la complejidad coordinativa de los mismos) favorece la creación de nuevos engramas motores, lo que redunda en una mayor coordinación general
Resumo:
El desarrollo histórico de la Psicología como disciplina científica puede ser interpretado, siguiendo a Manuel de Vega (1998), a la luz de los aportes epistemológicos de T. Kuhn. Este físico y filósofo sostiene que la historia de las disciplinas científicas está compuesta por diversos períodos, a saber, el período de ciencia pre-paradigmática, de ciencia normal, crisis y nueva ciencia normal. Kuhn presupone la existencia de un paradigma, el cual durante el período de ciencia normal dominará y determinará, entre otras cosas, cuáles son los problemas, las técnicas y soluciones que serán consideradas como válidas dentro de ese período. Diversos autores han sostenido que el conductismo fue el paradigma dominante en psicología durante la primera mitad del siglo XX pero, tras su crisis, hoy en día el nuevo paradigma dominante es el cognitivo. Este nuevo paradigma se basa en la analogía de la mente como un ordenador y presenta dos versiones. Si se interpreta la analogía en un sentido débil, la similitud funcional entre la mente y el ordenador no pierde de vista la peculiaridad del funcionamiento de la mente humana; en este sentido, debido a que la perspectiva psicológica continíoa presente en las investigaciones y que las mismas son consideradas como un instrumento para el estudio de la mente, la versión débil ha dado lugar a los desarrollos de la Psicología Cognitiva. En cambio, quienes han interpretado la analogía en un sentido fuerte dieron lugar a los desarrollos de la Ciencia Cognitiva (i). Su tarea primordial consiste en la construcción de Sistemas de Inteligencia Artificial que, en tanto simulan los comportamientos inteligentes humanos, tienen estados cognitivos. Dado que la ciencia cognitiva ha sido desarrollada en su mayoría por programadores, este tipo de investigación parte del supuesto que no es necesario saber cómo funciona el cerebro para aportar información relevante sobre el funcionamiento del sistema cognitivo humano (Searle, 1981, pág. 467). Uno de los problemas clásicos que se ha planteado dentro del paradigma cognitivo se centra en la pregunta de si es posible que las máquinas piensen. Varios científicos y filósofos han dado diversas respuestas pero lo cierto es que, a pesar de esta diversidad, a todos les resulta prácticamente inevitable hacer algíon tipo de referencia a la propuesta de Turing. Este pensador ha formulado un test para las máquinas que, de superarlo, sería preciso atribuirles la capacidad de pensar. En este trabajo, en primera instancia, caracterizo cuál es la propuesta de Turing que ha tomado el programa de Inteligencia Artificial (IA), en sentido fuerte, para determinar si las máquinas pueden pensar. Luego desarrollo dos objeciones clásicas que consisten en formular cuáles son las imposibilidades de las máquinas y el problema del marco, y propongo la existencia de un núcleo común entre ambas. En segunda instancia, con el objetivo de complejizar estas objeciones, tomo en consideración aportes provenientes de las teorías de las emociones contemporáneas, en particular considero aportes de las neurociencias cognitivas, y defiendo la tesis que afirma que las emociones son importantes para el desarrollo de la inteligencia humana. Si mi argumentación en esta segunda parte es correcta, entonces habré mostrado que la falencia del test de Turing consiste en suponer un concepto vetusto de inteligencia humana
Resumo:
Estudio descriptivo de los cambios neurológicos y maduración en el cerebro adolescente y su influencia en el aprendizaje, con la finalidad de diseñar una estrategia de enseñanza que tenga como objetivos hacer que el alumno aprenda, desarrolle y practique competencias (habilidades, actitudes y valores) ciudadanas y científicas sociales a través de un juego deportivo educativo para ser aplicado en el nivel de Educación Media Superior. La propuesta responde a las exigencias que se le demandan a la población mexicana por la Organización para la Cooperación y el Desarrollo Económicos (OCDE) para incorporarse al neocapitalismo. Se tomará como base un modelo deportivo cimentado en progresiones y con una visión paidológica, llamado 'Enseñando Juegos para su Entendimiento' (Teaching Games for Understanding (TGFU)). El contenido a desarrollar se centra en la Unidad Cuatro de la materia de Sociología que se imparte en sexto año de la Escuela Nacional Preparatoria (ENP) titulada 'Problemática social'. Concretamente se trabajará sobre el tema de 'Procesos Sociales que Construyen el Riesgos por Desastre Natural', tomando como base los cuatro impulsores sociales de riesgo desarrollados por el DARA en su documento Indice de Reducción del Riesgo (IRR), que son: degradación ambiental; condiciones socioeconómicas negativas; inadecuada planificación del territorio y uso incorrecto del suelo; falta de gobernabilidad
Resumo:
Este trabajo pretende sumar, a la rehabilitación de pacientes lesionados del sistema nervioso, una propuesta diferente a la visión clásica de tratamiento. Simplemente tomaremos del cerebro una de sus habilidades innatas, poniéndola a favor de nuestros pacientes. "La Plasticidad neuronal", que siempre se le atribuyó al cerebro en edades tempranas donde hay nuevas conexiones sinápticas y una mielinización creciente, hoy sabemos que aunque más limitada que en niños, permanece presente en la edad adulta. Los procesos mediante los cuales el cerebro del niño e incluso el cerebro adulto es capaz de repararse y reorganizarse han sido motivo de investigación en los últimos años y a pesar de su infinita complejidad los avances son alentadores. Aquí trataremos de poner en evidencia los resultados en el proceso de rehabilitación, la enseñanza de ejercicios dinámicos como parte del plan de trabajo. La indicación de movimientos a una persona Lesionada en el SNC, cuyo cerebro a pesar de la lesión, está en condiciones de realizar; retarda o enlentece el proceso de recuperación. Esto se debe a la ambigüedad en la dirección de la plasticidad neuronal, perpetuar una habilidad ya adquirida con repeticiones, estimula la plasticidad negativa o mal adaptativa, o sea el cerebro se vuelve "perezoso" y tiende a quedarse con las habilidades que tiene. La inclusión de ejercicios dinámicos dentro del plan de rehabilitación (dada la complejidad coordinativa de los mismos) favorece la creación de nuevos engramas motores, lo que redunda en una mayor coordinación general
Resumo:
El desarrollo histórico de la Psicología como disciplina científica puede ser interpretado, siguiendo a Manuel de Vega (1998), a la luz de los aportes epistemológicos de T. Kuhn. Este físico y filósofo sostiene que la historia de las disciplinas científicas está compuesta por diversos períodos, a saber, el período de ciencia pre-paradigmática, de ciencia normal, crisis y nueva ciencia normal. Kuhn presupone la existencia de un paradigma, el cual durante el período de ciencia normal dominará y determinará, entre otras cosas, cuáles son los problemas, las técnicas y soluciones que serán consideradas como válidas dentro de ese período. Diversos autores han sostenido que el conductismo fue el paradigma dominante en psicología durante la primera mitad del siglo XX pero, tras su crisis, hoy en día el nuevo paradigma dominante es el cognitivo. Este nuevo paradigma se basa en la analogía de la mente como un ordenador y presenta dos versiones. Si se interpreta la analogía en un sentido débil, la similitud funcional entre la mente y el ordenador no pierde de vista la peculiaridad del funcionamiento de la mente humana; en este sentido, debido a que la perspectiva psicológica continíoa presente en las investigaciones y que las mismas son consideradas como un instrumento para el estudio de la mente, la versión débil ha dado lugar a los desarrollos de la Psicología Cognitiva. En cambio, quienes han interpretado la analogía en un sentido fuerte dieron lugar a los desarrollos de la Ciencia Cognitiva (i). Su tarea primordial consiste en la construcción de Sistemas de Inteligencia Artificial que, en tanto simulan los comportamientos inteligentes humanos, tienen estados cognitivos. Dado que la ciencia cognitiva ha sido desarrollada en su mayoría por programadores, este tipo de investigación parte del supuesto que no es necesario saber cómo funciona el cerebro para aportar información relevante sobre el funcionamiento del sistema cognitivo humano (Searle, 1981, pág. 467). Uno de los problemas clásicos que se ha planteado dentro del paradigma cognitivo se centra en la pregunta de si es posible que las máquinas piensen. Varios científicos y filósofos han dado diversas respuestas pero lo cierto es que, a pesar de esta diversidad, a todos les resulta prácticamente inevitable hacer algíon tipo de referencia a la propuesta de Turing. Este pensador ha formulado un test para las máquinas que, de superarlo, sería preciso atribuirles la capacidad de pensar. En este trabajo, en primera instancia, caracterizo cuál es la propuesta de Turing que ha tomado el programa de Inteligencia Artificial (IA), en sentido fuerte, para determinar si las máquinas pueden pensar. Luego desarrollo dos objeciones clásicas que consisten en formular cuáles son las imposibilidades de las máquinas y el problema del marco, y propongo la existencia de un núcleo común entre ambas. En segunda instancia, con el objetivo de complejizar estas objeciones, tomo en consideración aportes provenientes de las teorías de las emociones contemporáneas, en particular considero aportes de las neurociencias cognitivas, y defiendo la tesis que afirma que las emociones son importantes para el desarrollo de la inteligencia humana. Si mi argumentación en esta segunda parte es correcta, entonces habré mostrado que la falencia del test de Turing consiste en suponer un concepto vetusto de inteligencia humana
Resumo:
Estudio descriptivo de los cambios neurológicos y maduración en el cerebro adolescente y su influencia en el aprendizaje, con la finalidad de diseñar una estrategia de enseñanza que tenga como objetivos hacer que el alumno aprenda, desarrolle y practique competencias (habilidades, actitudes y valores) ciudadanas y científicas sociales a través de un juego deportivo educativo para ser aplicado en el nivel de Educación Media Superior. La propuesta responde a las exigencias que se le demandan a la población mexicana por la Organización para la Cooperación y el Desarrollo Económicos (OCDE) para incorporarse al neocapitalismo. Se tomará como base un modelo deportivo cimentado en progresiones y con una visión paidológica, llamado 'Enseñando Juegos para su Entendimiento' (Teaching Games for Understanding (TGFU)). El contenido a desarrollar se centra en la Unidad Cuatro de la materia de Sociología que se imparte en sexto año de la Escuela Nacional Preparatoria (ENP) titulada 'Problemática social'. Concretamente se trabajará sobre el tema de 'Procesos Sociales que Construyen el Riesgos por Desastre Natural', tomando como base los cuatro impulsores sociales de riesgo desarrollados por el DARA en su documento Indice de Reducción del Riesgo (IRR), que son: degradación ambiental; condiciones socioeconómicas negativas; inadecuada planificación del territorio y uso incorrecto del suelo; falta de gobernabilidad
Resumo:
Este trabajo pretende sumar, a la rehabilitación de pacientes lesionados del sistema nervioso, una propuesta diferente a la visión clásica de tratamiento. Simplemente tomaremos del cerebro una de sus habilidades innatas, poniéndola a favor de nuestros pacientes. "La Plasticidad neuronal", que siempre se le atribuyó al cerebro en edades tempranas donde hay nuevas conexiones sinápticas y una mielinización creciente, hoy sabemos que aunque más limitada que en niños, permanece presente en la edad adulta. Los procesos mediante los cuales el cerebro del niño e incluso el cerebro adulto es capaz de repararse y reorganizarse han sido motivo de investigación en los últimos años y a pesar de su infinita complejidad los avances son alentadores. Aquí trataremos de poner en evidencia los resultados en el proceso de rehabilitación, la enseñanza de ejercicios dinámicos como parte del plan de trabajo. La indicación de movimientos a una persona Lesionada en el SNC, cuyo cerebro a pesar de la lesión, está en condiciones de realizar; retarda o enlentece el proceso de recuperación. Esto se debe a la ambigüedad en la dirección de la plasticidad neuronal, perpetuar una habilidad ya adquirida con repeticiones, estimula la plasticidad negativa o mal adaptativa, o sea el cerebro se vuelve "perezoso" y tiende a quedarse con las habilidades que tiene. La inclusión de ejercicios dinámicos dentro del plan de rehabilitación (dada la complejidad coordinativa de los mismos) favorece la creación de nuevos engramas motores, lo que redunda en una mayor coordinación general
Resumo:
Machine learning techniques are used for extracting valuable knowledge from data. Nowa¬days, these techniques are becoming even more important due to the evolution in data ac¬quisition and storage, which is leading to data with different characteristics that must be exploited. Therefore, advances in data collection must be accompanied with advances in machine learning techniques to solve new challenges that might arise, on both academic and real applications. There are several machine learning techniques depending on both data characteristics and purpose. Unsupervised classification or clustering is one of the most known techniques when data lack of supervision (unlabeled data) and the aim is to discover data groups (clusters) according to their similarity. On the other hand, supervised classification needs data with supervision (labeled data) and its aim is to make predictions about labels of new data. The presence of data labels is a very important characteristic that guides not only the learning task but also other related tasks such as validation. When only some of the available data are labeled whereas the others remain unlabeled (partially labeled data), neither clustering nor supervised classification can be used. This scenario, which is becoming common nowadays because of labeling process ignorance or cost, is tackled with semi-supervised learning techniques. This thesis focuses on the branch of semi-supervised learning closest to clustering, i.e., to discover clusters using available labels as support to guide and improve the clustering process. Another important data characteristic, different from the presence of data labels, is the relevance or not of data features. Data are characterized by features, but it is possible that not all of them are relevant, or equally relevant, for the learning process. A recent clustering tendency, related to data relevance and called subspace clustering, claims that different clusters might be described by different feature subsets. This differs from traditional solutions to data relevance problem, where a single feature subset (usually the complete set of original features) is found and used to perform the clustering process. The proximity of this work to clustering leads to the first goal of this thesis. As commented above, clustering validation is a difficult task due to the absence of data labels. Although there are many indices that can be used to assess the quality of clustering solutions, these validations depend on clustering algorithms and data characteristics. Hence, in the first goal three known clustering algorithms are used to cluster data with outliers and noise, to critically study how some of the most known validation indices behave. The main goal of this work is however to combine semi-supervised clustering with subspace clustering to obtain clustering solutions that can be correctly validated by using either known indices or expert opinions. Two different algorithms are proposed from different points of view to discover clusters characterized by different subspaces. For the first algorithm, available data labels are used for searching for subspaces firstly, before searching for clusters. This algorithm assigns each instance to only one cluster (hard clustering) and is based on mapping known labels to subspaces using supervised classification techniques. Subspaces are then used to find clusters using traditional clustering techniques. The second algorithm uses available data labels to search for subspaces and clusters at the same time in an iterative process. This algorithm assigns each instance to each cluster based on a membership probability (soft clustering) and is based on integrating known labels and the search for subspaces into a model-based clustering approach. The different proposals are tested using different real and synthetic databases, and comparisons to other methods are also included when appropriate. Finally, as an example of real and current application, different machine learning tech¬niques, including one of the proposals of this work (the most sophisticated one) are applied to a task of one of the most challenging biological problems nowadays, the human brain model¬ing. Specifically, expert neuroscientists do not agree with a neuron classification for the brain cortex, which makes impossible not only any modeling attempt but also the day-to-day work without a common way to name neurons. Therefore, machine learning techniques may help to get an accepted solution to this problem, which can be an important milestone for future research in neuroscience. Resumen Las técnicas de aprendizaje automático se usan para extraer información valiosa de datos. Hoy en día, la importancia de estas técnicas está siendo incluso mayor, debido a que la evolución en la adquisición y almacenamiento de datos está llevando a datos con diferentes características que deben ser explotadas. Por lo tanto, los avances en la recolección de datos deben ir ligados a avances en las técnicas de aprendizaje automático para resolver nuevos retos que pueden aparecer, tanto en aplicaciones académicas como reales. Existen varias técnicas de aprendizaje automático dependiendo de las características de los datos y del propósito. La clasificación no supervisada o clustering es una de las técnicas más conocidas cuando los datos carecen de supervisión (datos sin etiqueta), siendo el objetivo descubrir nuevos grupos (agrupaciones) dependiendo de la similitud de los datos. Por otra parte, la clasificación supervisada necesita datos con supervisión (datos etiquetados) y su objetivo es realizar predicciones sobre las etiquetas de nuevos datos. La presencia de las etiquetas es una característica muy importante que guía no solo el aprendizaje sino también otras tareas relacionadas como la validación. Cuando solo algunos de los datos disponibles están etiquetados, mientras que el resto permanece sin etiqueta (datos parcialmente etiquetados), ni el clustering ni la clasificación supervisada se pueden utilizar. Este escenario, que está llegando a ser común hoy en día debido a la ignorancia o el coste del proceso de etiquetado, es abordado utilizando técnicas de aprendizaje semi-supervisadas. Esta tesis trata la rama del aprendizaje semi-supervisado más cercana al clustering, es decir, descubrir agrupaciones utilizando las etiquetas disponibles como apoyo para guiar y mejorar el proceso de clustering. Otra característica importante de los datos, distinta de la presencia de etiquetas, es la relevancia o no de los atributos de los datos. Los datos se caracterizan por atributos, pero es posible que no todos ellos sean relevantes, o igualmente relevantes, para el proceso de aprendizaje. Una tendencia reciente en clustering, relacionada con la relevancia de los datos y llamada clustering en subespacios, afirma que agrupaciones diferentes pueden estar descritas por subconjuntos de atributos diferentes. Esto difiere de las soluciones tradicionales para el problema de la relevancia de los datos, en las que se busca un único subconjunto de atributos (normalmente el conjunto original de atributos) y se utiliza para realizar el proceso de clustering. La cercanía de este trabajo con el clustering lleva al primer objetivo de la tesis. Como se ha comentado previamente, la validación en clustering es una tarea difícil debido a la ausencia de etiquetas. Aunque existen muchos índices que pueden usarse para evaluar la calidad de las soluciones de clustering, estas validaciones dependen de los algoritmos de clustering utilizados y de las características de los datos. Por lo tanto, en el primer objetivo tres conocidos algoritmos se usan para agrupar datos con valores atípicos y ruido para estudiar de forma crítica cómo se comportan algunos de los índices de validación más conocidos. El objetivo principal de este trabajo sin embargo es combinar clustering semi-supervisado con clustering en subespacios para obtener soluciones de clustering que puedan ser validadas de forma correcta utilizando índices conocidos u opiniones expertas. Se proponen dos algoritmos desde dos puntos de vista diferentes para descubrir agrupaciones caracterizadas por diferentes subespacios. Para el primer algoritmo, las etiquetas disponibles se usan para bus¬car en primer lugar los subespacios antes de buscar las agrupaciones. Este algoritmo asigna cada instancia a un único cluster (hard clustering) y se basa en mapear las etiquetas cono-cidas a subespacios utilizando técnicas de clasificación supervisada. El segundo algoritmo utiliza las etiquetas disponibles para buscar de forma simultánea los subespacios y las agru¬paciones en un proceso iterativo. Este algoritmo asigna cada instancia a cada cluster con una probabilidad de pertenencia (soft clustering) y se basa en integrar las etiquetas conocidas y la búsqueda en subespacios dentro de clustering basado en modelos. Las propuestas son probadas utilizando diferentes bases de datos reales y sintéticas, incluyendo comparaciones con otros métodos cuando resulten apropiadas. Finalmente, a modo de ejemplo de una aplicación real y actual, se aplican diferentes técnicas de aprendizaje automático, incluyendo una de las propuestas de este trabajo (la más sofisticada) a una tarea de uno de los problemas biológicos más desafiantes hoy en día, el modelado del cerebro humano. Específicamente, expertos neurocientíficos no se ponen de acuerdo en una clasificación de neuronas para la corteza cerebral, lo que imposibilita no sólo cualquier intento de modelado sino también el trabajo del día a día al no tener una forma estándar de llamar a las neuronas. Por lo tanto, las técnicas de aprendizaje automático pueden ayudar a conseguir una solución aceptada para este problema, lo cual puede ser un importante hito para investigaciones futuras en neurociencia.
Resumo:
Abstract The creation of atlases, or digital models where information from different subjects can be combined, is a field of increasing interest in biomedical imaging. When a single image does not contain enough information to appropriately describe the organism under study, it is then necessary to acquire images of several individuals, each of them containing complementary data with respect to the rest of the components in the cohort. This approach allows creating digital prototypes, ranging from anatomical atlases of human patients and organs, obtained for instance from Magnetic Resonance Imaging, to gene expression cartographies of embryo development, typically achieved from Light Microscopy. Within such context, in this PhD Thesis we propose, develop and validate new dedicated image processing methodologies that, based on image registration techniques, bring information from multiple individuals into alignment within a single digital atlas model. We also elaborate a dedicated software visualization platform to explore the resulting wealth of multi-dimensional data and novel analysis algo-rithms to automatically mine the generated resource in search of bio¬logical insights. In particular, this work focuses on gene expression data from developing zebrafish embryos imaged at the cellular resolution level with Two-Photon Laser Scanning Microscopy. Disposing of quantitative measurements relating multiple gene expressions to cell position and their evolution in time is a fundamental prerequisite to understand embryogenesis multi-scale processes. However, the number of gene expressions that can be simultaneously stained in one acquisition is limited due to optical and labeling constraints. These limitations motivate the implementation of atlasing strategies that can recreate a virtual gene expression multiplex. The developed computational tools have been tested in two different scenarios. The first one is the early zebrafish embryogenesis where the resulting atlas constitutes a link between the phenotype and the genotype at the cellular level. The second one is the late zebrafish brain where the resulting atlas allows studies relating gene expression to brain regionalization and neurogenesis. The proposed computational frameworks have been adapted to the requirements of both scenarios, such as the integration of partial views of the embryo into a whole embryo model with cellular resolution or the registration of anatom¬ical traits with deformable transformation models non-dependent on any specific labeling. The software implementation of the atlas generation tool (Match-IT) and the visualization platform (Atlas-IT) together with the gene expression atlas resources developed in this Thesis are to be made freely available to the scientific community. Lastly, a novel proof-of-concept experiment integrates for the first time 3D gene expression atlas resources with cell lineages extracted from live embryos, opening up the door to correlate genetic and cellular spatio-temporal dynamics. La creación de atlas, o modelos digitales, donde la información de distintos sujetos puede ser combinada, es un campo de creciente interés en imagen biomédica. Cuando una sola imagen no contiene suficientes datos como para describir apropiadamente el organismo objeto de estudio, se hace necesario adquirir imágenes de varios individuos, cada una de las cuales contiene información complementaria respecto al resto de componentes del grupo. De este modo, es posible crear prototipos digitales, que pueden ir desde atlas anatómicos de órganos y pacientes humanos, adquiridos por ejemplo mediante Resonancia Magnética, hasta cartografías de la expresión genética del desarrollo de embrionario, típicamente adquiridas mediante Microscopía Optica. Dentro de este contexto, en esta Tesis Doctoral se introducen, desarrollan y validan nuevos métodos de procesado de imagen que, basándose en técnicas de registro de imagen, son capaces de alinear imágenes y datos provenientes de múltiples individuos en un solo atlas digital. Además, se ha elaborado una plataforma de visualization específicamente diseñada para explorar la gran cantidad de datos, caracterizados por su multi-dimensionalidad, que resulta de estos métodos. Asimismo, se han propuesto novedosos algoritmos de análisis y minería de datos que permiten inspeccionar automáticamente los atlas generados en busca de conclusiones biológicas significativas. En particular, este trabajo se centra en datos de expresión genética del desarrollo embrionario del pez cebra, adquiridos mediante Microscopía dos fotones con resolución celular. Disponer de medidas cuantitativas que relacionen estas expresiones genéticas con las posiciones celulares y su evolución en el tiempo es un prerrequisito fundamental para comprender los procesos multi-escala característicos de la morfogénesis. Sin embargo, el número de expresiones genéticos que pueden ser simultáneamente etiquetados en una sola adquisición es reducido debido a limitaciones tanto ópticas como del etiquetado. Estas limitaciones requieren la implementación de estrategias de creación de atlas que puedan recrear un multiplexado virtual de expresiones genéticas. Las herramientas computacionales desarrolladas han sido validadas en dos escenarios distintos. El primer escenario es el desarrollo embrionario temprano del pez cebra, donde el atlas resultante permite constituir un vínculo, a nivel celular, entre el fenotipo y el genotipo de este organismo modelo. El segundo escenario corresponde a estadios tardíos del desarrollo del cerebro del pez cebra, donde el atlas resultante permite relacionar expresiones genéticas con la regionalización del cerebro y la formación de neuronas. La plataforma computacional desarrollada ha sido adaptada a los requisitos y retos planteados en ambos escenarios, como la integración, a resolución celular, de vistas parciales dentro de un modelo consistente en un embrión completo, o el alineamiento entre estructuras de referencia anatómica equivalentes, logrado mediante el uso de modelos de transformación deformables que no requieren ningún marcador específico. Está previsto poner a disposición de la comunidad científica tanto la herramienta de generación de atlas (Match-IT), como su plataforma de visualización (Atlas-IT), así como las bases de datos de expresión genética creadas a partir de estas herramientas. Por último, dentro de la presente Tesis Doctoral, se ha incluido una prueba conceptual innovadora que permite integrar los mencionados atlas de expresión genética tridimensionales dentro del linaje celular extraído de una adquisición in vivo de un embrión. Esta prueba conceptual abre la puerta a la posibilidad de correlar, por primera vez, las dinámicas espacio-temporales de genes y células.
Resumo:
Desde hace mucho tiempo, el hombre se ha preocupado por los fenómenos que rigen el movimiento humano. Así Aristóteles (384-322 a. J.C.) poseía conocimientos notables sobre el centro de gravedad, las leyes del movimiento y de las palancas, siendo el primero en describir el complejo proceso de la marcha. A este sabio le siguieron muchos otros: Arquímedes (287-212 a. J.C.)- Ga leno (131-201 a.J.C.) Leonardo Da Vinci (1452-1519), que describió la mecánica del cuerpo en posición erecta, en la marcha y en el salto. Galileo Galilei (1564-1643) proporcionó empuje al estudio de los fenómenos mecánicos en términos matemáticos, creando las bases para la biomecánica. Alfonso Borelli (1608-1679), considerado por algunos autores como el padre de la moderna biomecánica. Aseguraba que los músculos funcionan de acuerdo con principios matemáticos. Nicolas Andry (1658-1742), creador de la ciencia ortopédica. Isaac Newton, que estableció las bases de la dinámica moderna con la enunciación de sus leyes mecánicas todavía hoy vigentes. E.J. Marey (1830-1904), afirmaba que el movimiento es la más importante de las funciones humanas, y describió métodos fotográficos para la investigación biológica. c.w. Braune (1831-1892), y Otto Fischer (1861-1917), describieron un método experimental para determinar el centro de gravedad. Harold Edgerton, inventor del estroboscopio electrónico de aplicación en el análisis fotográfico del movimiento. Gideon Ariel, una de las máximas autoridades en la biomecánica del deporte actual. ••••••• oooOooo ••••••• En lo que respecta al ámbito deportivo, en los últimos años estamos asistiendo a una gran mejora del rendimiento. Esto es debido en gran parte a un mayor apoyo científico en el proceso de entrenamiento, tanto en lo que se refiere a los métodos para desarrollar la condición física, como en lo concerniente a la perfección de la técnica deportiva, es decir, el aprovechamiento más eficaz de las leyes mecánicas que intervienen en el movimiento deportivo. Según P. Rasch y R. Burke, la biomecánica se ocupa de la investigación del movimiento humano por medio de los conceptos de la física clásica y las disciplinas afines en el arte práctico de la ingeniería. Junto con la anatomía, biofísica, bioquímica, fisiología, psicología y cibernética, y estrechamente relacionada con ellas, la biomecánica, conforma las bases de la metodología deportiva. (Hochmuth) Entre los objetivos específicos de la biomecánica está la investigación dirigida a encontrar una técnica deportiva más eficaz. Actualmente, el perfeccionamiento de la técnica se realiza cada vez más apoyándose en los trabajos de análisis biomecánico. Efectivamente, esto tiene su razón de ser, pues hay detalles en el curso del ~~ movimiento que escapan a la simple observación visual por parte del entrenador. Entre dos lanzamientos de distinta longitud, en muchas ocasiones no se pueden percibir ninguna o como mucho sólo pequeñas diferencias. De ahí la necesidad de las investigaciones basadas en el análisis biomecánico, de cuyos resultados obtendrá el entrenador la información que precisa para realizar las modificaciones oportunas en cuanto a la técnica deportiva empleada por su atleta se refiere. Para el análisis biomecánico se considera el cuerpo humano como un conjunto de segmentos que forman un sistema de eslabones sometido a las leyes físicas. Estos segmentos son: la cabeza, el tronco, los brazos, los antebrazos, las manos, los muslos, las piernas y los pies. A través de estos segmentos y articulaciones se transmiten las aceleraciones y desaceleraciones para alcanzar la velocidad deseada en las porciones terminales y en el sistema propioceptivo que tiene su centro en el cerebro. De todo esto podemos deducir la práctica imposibilidad de descubrir un error en el curso del movimiento por la sola observación visual del entrenador por experto que este sea (Zanon). El aspecto biológico de la biomecánica no se conoce tanto como el aspecto mecánico, ya que este campo es mucho más complejo y se necesitan aparatos de medición muy precisos. Entre los objetivos que me he planteado al efectuar este trabajo están los siguientes: - Análisis biomecánico de uno de los mejores lanzadores de martillo de España. - Qué problemas surgen en el análisis biomecánico tridimensional. Cómo llevar a cabo este tipo de investigación con un material elemental, ya que no disponemos de otro. Ofrecer al técnico deportivo los procedimientos matemáticos del cálculo necesarios. En definitiva ofrecer una pequeña ayuda al entrenador, en su búsqueda de soluciones para el perfeccionamiento de la técnica deportiva.
Resumo:
La evolución de la maquinaria agrícola en el siglo XX ha sido tan espectacular que, de los tres grandes avances habidos a lo largo de la historia de la maquinaria agrícola, dos de ellos podemos considerar que marcan el comienzo y el fin del siglo XX. El primer avance fundamental se dio el día en que el hombre que removía la tierra golpeándola con una herramienta tipo azada decidió avanzar con ella introducida en el suelo venciendo la fuerza de tiro. Nació así el arado en un tiempo indeterminado de la prehistoria. Esa primera máquina y las pocas que en muchos siglos después se diseñaron para trabajar la tierra estaban accionadas por esfuerzo muscular, ya fuera el del hombre o de los animales de tiro. El siguiente paso decisivo, que libra al hombre de la necesidad de contar con fuerza muscular para trabajar el campo, se dio al aplicar a la agricultura la energía generada por motores que consumen combustibles. Aunque a lo largo del siglo XIX se construyeron máquinas de vapor estacionarias denominadas locomóviles que, mediante un juego de cables y poleas, conseguían tirar de los arados, su uso fue escaso y los agricultores no se libraron de seguir con su collera de muías o yunta de bueyes. Sin embargo, la construcción del primer tractor con motor de combustión interna, debida a Froelich en 1892, marca el inicio de la actual tractorización. A partir de ese momento, tanto el tamaño de las máquinas como el de la superficie trabajada por un agricultor pueden crecer, porque es la energía desarrollada por un motor la que realiza los esfuerzos necesarios. Esta fecha de 1892 podemos considerarla el inicio del siglo XX en maquinaria agrícola. Por último, en época reciente estamos asistiendo al empleo de dispositivos electrónicos e informáticos en las máquinas, los cuales miden diversas variables relativas al trabajo que desarrolla, guardan la información en registros e, incluso, deciden cómo debe comandarse la máquina. No sólo estamos liberados de realizar esfuerzos, sino también de mantener toda nuestra atención en el trabajo y tomar decisiones en función de las características del terreno, cultivo, etc. Estas técnicas, que a nivel de investigación y prototipo existen desde los años 90, marcan el inicio del siglo XXI en el que es de esperar que se difundan. Por tanto, ya tenemos encuadrado el siglo XX como el periodo comprendido desde que el esfuerzo para trabajar la tierra deja de ser muscular hasta que el cerebro que toma las decisiones podrá dejar de ser humano.
Resumo:
Alan Turing y la Neurociencia