1000 resultados para Procesamiento electrónico de datos-Hongos
Resumo:
Nuevas biotecnologías, como los marcadores de la molécula de ADN, permiten caracterizar el genoma vegetal. El uso de la información genómica producida para cientos o miles de posiciones cromosómicas permite identificar genotipos superiores en menos tiempo que el requerido por la selección fenotípica tradicional. La mayoría de los caracteres de las especies vegetales cultivadas de importancia agronómica y económica, son controlados por poli-genes causantes de un fenotipo con variación continua, altamente afectados por el ambiente. Su herencia es compleja ya que resulta de la interacción entre genes, del mismo o distinto cromosoma, y de la interacción del genotipo con el ambiente, dificultando la selección. Estas biotecnologías producen bases de datos con gran cantidad de información y estructuras complejas de correlación que requieren de métodos y modelos biométricos específicos para su procesamiento. Los modelos estadísticos focalizados en explicar el fenotipo a partir de información genómica masiva requieren la estimación de un gran número de parámetros. No existen métodos, dentro de la estadística paramétrica capaces de abordar este problema eficientemente. Además los modelos deben contemplar no-aditividades (interacciones) entre efectos génicos y de éstos con el ambiente que son también dificiles de manejar desde la concepción paramétrica. Se hipotetiza que el análisis de la asociación entre caracteres fenotípicos y genotipos moleculares, caracterizados por abundante información genómica, podría realizarse eficientemente en el contexto de los modelos mixtos semiparamétricos y/o de métodos no-paramétricos basados en técnicas de aprendizaje automático. El objetivo de este proyecto es desarrollar nuevos métodos para análisis de datos que permitan el uso eficiente de información genómica masiva en evaluaciones genéticas de interés agro-biotecnológico. Los objetivos específicos incluyen la comparación, respecto a propiedades estadísticas y computacionales, de estrategias analíticas paramétricas con estrategias semiparamétricas y no-paramétricas. Se trabajará con aproximaciones por regresión del análisis de loci de caracteres cuantitativos bajo distintas estrategias y escenarios (reales y simulados) con distinto volúmenes de datos de marcadores moleculares. En el área paramétrica se pondrá especial énfasis en modelos mixtos, mientras que en el área no paramétrica se evaluarán algoritmos de redes neuronales, máquinas de soporte vectorial, filtros multivariados, suavizados del tipo LOESS y métodos basados en núcleos de reciente aparición. La propuesta semiparamétrica se basará en una estrategia de análisis en dos etapas orientadas a: 1) reducir la dimensionalidad de los datos genómicos y 2) modelar el fenotipo introduciendo sólo las señales moleculares más significativas. Con este trabajo se espera poner a disposición de investigadores de nuestro medio, nuevas herramientas y procedimientos de análisis que permitan maximizar la eficiencia en el uso de los recursos asignados a la masiva captura de datos genómicos y su aplicación en desarrollos agro-biotecnológicos.
Resumo:
El mejoramiento animal tiene como función modificar genéticamente una población animal con un fin económico determinado. Las herramientas que se utilizan son: evaluación genética, selección y/o esquemas de apareamiento. La evaluación genética se realiza obteniendo información (marcadores) que predice el genotipo del animal que no es registrable directamente. Estos marcadores son el fenotipo o información física del animal y algún predictor del genotipo que puede ser un marcador químico o la relación de parentesco con otro animal (padre-madre, hermanos, progenie). El uso de los marcadores genéticos para determinar la genealogía está en desarrollo actualmente pero resulta extremadamente costoso para ciertos niveles de producción. Por otra parte, los dispositivos electrónicos ensayados hasta el momento no han resultado muy eficientes, por lo tanto se propone para este proyecto desarrollar un sistema electrónico de identificación animal que permita construir matrices de genealogía para la evaluación genética de reproductores de las diferentes especies en condiciones de producción extensivas. El proyecto se desarrollará entre especialistas en Mejoramiento Animal e Ingenieros Electrónicos, en un aporte multidisciplinario a la solución del problema de establecer la filiación a través del armado del par macho-hembra durante el servicio natural de las distintas especies y el par madre-cría en algún momento luego del parto. La solución propuesta consiste en la implementación de dispositivos electrónicos activos (microcontrolador y tranceptor de radiofrecuencia alimentados a batería) dispuestos como nodos de una red de sensores inalambricos. Estos dispositivos serán colocados a través de collares en los animales tomados como objeto de estudio y mediante el continuo intercambio de informacion entre ellos se generará una matriz de datos que permita a posterior establecer la relación que existe entre ellos a traves de la determinacion de la periodicidad de sus cercanías relativas.
Resumo:
En dispositivos electrónicos de última generación destinados a funciones de comunicación o control automático, los algoritmos de procesamiento digital de señales trasladados al hardware han ocupado un lugar fundamental. Es decir el estado de arte en el área de las comunicaciones y control puede resumirse en algoritmos basados en procesamiento digital de señales. Las implementaciones digitales de estos algoritmos han sido estudiadas en áreas de la informática desde hace tiempo. Sin embargo, aunque el incremento en la complejidad de los algoritmos modernos permite alcanzar desempeños atractivos en aplicaciones específicas, a su vez impone restricciones en la velocidad de operación que han motivado el diseño directamente en hardware de arquitecturas para alto rendimiento. En este contexto, los circuitos electrónicos basados en lógica programable, principalmente los basados en FPGA (Field-Programmable Gate Array), permiten obtener medidas de desempeño altamente confiables que proporcionan el acercamiento necesario hacia el diseño electrónico de circuitos para aplicaciones específicas “ASIC-VLSI” (Application Specific Integrated Circuit - Very Large Scale Integration). En este proyecto se analiza el diseño y la implementación de aquitecturas electrónicas para el procesamiento digital de señales, con el objeto de obtener medidas reales sobre el comportamiento del canal inalámbrico y su influencia sobre la estimación y el control de trayectoria en vehículos aéreos no tripulados (UAV, Unmanned Aerial Vehicle). Para esto se propone analizar un dispositivo híbrido basado en microcontroladores y circuitos FPGA y sobre este mismo dispositivo implementar mediante algoritmo un control de trayectoria que permita mantener un punto fijo en el centro del cuadro de una cámara de video a bordo de un UAV, que sea eficiente en términos de velocidad de operación, dimensiones y consumo de energía.
Resumo:
El mejoramiento animal tiene como función modificar genéticamente una población animal con un fin económico determinado. Las herramientas que se utilizan son: evaluación genética, selección y/o esquemas de apareamiento. La evaluación genética se realiza obteniendo información (marcadores) que predice el genotipo del animal que no es registrable directamente. Estos marcadores son el fenotipo o información física del animal y algún predictor del genotipo que puede ser un marcador químico o la relación de parentesco con otro animal. El uso de los marcadores genéticos para determinar la genealogía está en desarrollo actualmente pero resulta extremadamente costoso para ciertos niveles de producción. Los dispositivos electrónicos ensayados hasta el momento no han resultado muy eficientes, por lo tanto se propone para este proyecto desarrollar un sistema electrónico de identificación animal que permita construir matrices de genealogía para la evaluación genética de reproductores de las diferentes especies en condiciones de producción extensivas. El proyecto se desarrollará entre especialistas en mejoramiento animal e ingenieros electrónicos, en un aporte multidisciplinario a la solución del problema de establecer la filiación a través del armado del para macho-hembra durante el servicio natural de las distintas especies y el par madre-cría en algún momento luego del parto. La solución propuesta consiste en la implementación de dispositivos electrónicos activos (microcontrolador y tranceptor de radiofrecuencia alimentados a batería) dispuestos como nodos de una red de sensores inalambricos. Estos dispositivos serán colocados en los animales tomados como objeto de estudio, y mediante el continuo intercambio de informacion entre ellos se genera una matriz de datos que permita a posterior establecer la relación que existe entre ellos a traves de la determinacion de la periodicidad de sus cercanias relativas.
Resumo:
Con la creciente generación de resonancias magnéticas, los servicios de radiología necesitan aplicaciones que les faciliten el trabajo de acceso remoto a los datos y a las herramientas que utilicen para la extracción de datos para realizar sus diagnósticos. El objetivo de este proyecto es el de estudiar e integrar en la plataforma web del grupo de Imagen Médica del PIC llamada PICNIC (PIC NeuroImaging Center) un conjunto de aplicaciones para el estudio y procesamiento de neuroimagen con la implementación de herramientas software en la plataforma grid del PIC.
Resumo:
En noviembre de 2001, sólo dos meses después de los atentados a las Torres Gemelas, se aprobó una ley que obligaba a cualquier compañía aérea que operase vuelos de pasajeros con destino u origen a EE UU a proporcionar a la Oficina de Aduanas y Protección Fronteriza (Bureau of Customs and Border Protection) el acceso electrónico a los datos contenidos en el registro de nombres de pasajeros, conocidos por sus sigla en inglés PNR (Passenger Name Record). Tras varios acuerdos entre la Unión Europea y EE UU, y otros suscritos con Canadá y Australia, se ha avanzado hacia ciertos mínimos que deben respetarse en el proceso de transferencia internacional de datos personales desde Europa a terceros Estados con fines de represión y prevención penal de ilícitos terroristas. No obstante, a día de hoy son muchas las dudas que surgen tras el análisis detallado de los mismos. Este trabajo repasa críticamente dichos acuerdos, así como el proyecto de creación de un PNR para Europa, poniendo el acento en los aspectos más sensibles desde el punto de vista de la protección de datos personales, y de la configuración de la libertad en el marco de unas medidas proporcionales de seguridad que puedan ser útiles de cara a su renovación con más garantías y la posible suscripción de más acuerdos con dicha finalidad.
Resumo:
Este proyecto tiene como finalidad el diseño, el desarrollo y la puesta en marcha de un almacén de datos destinado, tanto al almacenamiento de la información que nuestro cliente la Academia de Cine Andorrana dispone de los diferentes premios de los Festivales cinematográficos más importantes, como al análisis y la explotación de los datos. El proyecto parte del conjunto de documentos en formato Microsoft Excel que la Academia de Cine Andorrana utiliza como repositorio de información cinematográfica, los cuales tras un proceso de análisis y diseño darán lugar a modelo conceptual, lógico y físico de un cubo multidimensional de procesamiento Analítico Relacional o ROLAP en esquema de copo de nieve. Así mismo, el proyecto incluye el diseño y desarrollo de los procesos necesarios de extracción, transformación y carga (ETL) de las fuentes operacionales de información, previamente exportadas a formato CSV, sobre la base de datos multidimensional. Por último, el proyecto contempla la construcción de un área de negocio que sirve como base y entorno de trabajo para el desarrollo de los informes de extracción y explotación de los datos requeridos por la Academia de Cine Andorrana.
Resumo:
Se analiza el uso de estadísticas e indicadores de rendimiento de productos y servicios electrónicos en los procesos de evaluación bibliotecaria. Se examinan los principales proyectos de definición de estadísticas e indicadores desarrollados durante los últimos años, prestando especial atención a tres de ellos: Counter, E-metrics e ISO, y se analizan las estadísticas que actualmente ofrecen cuatro grandes editores de revistas electrónicas (American Chemical Society, Emerald, Kluwer y Wiley) y un servicio (Scitation Usage Statistics) que aglutina datos de seis editores de revistas de física. Los resultados muestran un cierto grado de consenso en la determinación de un conjunto básico de estadísticas e indicadores a pesar de la diversidad de proyectos existentes y de la heterogeneidad de datos ofrecidos por los editores.
Resumo:
Durante toda la evolución de la tecnología, se han empleado aparatos interconexionados por cables. Los cables limitan la libertad de movimiento del usuario y pueden captar interferencias entre ellos si la red de cableado es elevada. Mientras avanzaba la tecnología inalámbrica, se ha ido adaptando al equipamiento electrónico a la vez que se iban haciendo cada vez más pequeños. Por esto, se impone la necesidad de utilizarlos como controles a distancia sin el empleo de cables debido a los inconvenientes que estos conllevan. El presente trabajo, pretende unificar tres tecnologías que pueden tener en el futuro una gran afinidad. · Dispositivos basados en el sistema Android. Desde sus inicios, han tenido una evolución meteórica. Se han ido haciendo cada vez más rápidos y mejores. · Sistemas inalámbricos. Los sistemas wifi o bluetooth, se han ido incorporando a nuestras vidas cada vez más y están prácticamente en cualquier aparato. · Robótica. Cualquier proceso de producción incorpora un robot. Son necesarios para hacer muchos trabajos que, aunque el hombre lo puede realizar, un robot reduce los tiempos y la peligrosidad de los procesos. Aunque las dos primeras tecnologías van unidas, ¿quién no tiene un teléfono con conexión wifi y bluetooth?, pocos diseños aúnan estos campos con la Robótica. El objetivo final de este trabajo es realizar una aplicación en Android para el control remoto de un robot, empleando el sistema de comunicación inalámbrico. La aplicación desarrollada, permite controlar el robot a conveniencia del usuario en un entorno táctil/teledirigido. Gracias a la utilización de simulador en ambos lenguajes (RAPID y Android), ha sido posible realizar la programación sin tener que estar presente ante el robot objeto de este trabajo. A través de su progreso, se ha ido evolucionando en la cantidad de datos enviados al robot y complejidad en su procesamiento, a la vez que se ha mejorado en la estética de la aplicación. Finalmente se usó la aplicación desarrollada con el robot, consiguiendo con éxito que realizara los movimientos que eran enviados con la tablet programada.
Resumo:
1. Conocer el papel que desempeña el control de los movimientos oculares en los trastornos de la lectura. 2. Determinar si algunos componentes del procesamiento inicial de la información visual, como la persistencia visual o la rapidez de procesamiento de esta información, son variables que permiten discriminar entre sujetos disléxicos y aquellos otros que no padecen tal tipo de tratorno. 3. Averiguar si realmente la dislexia puede distinguirse de otros tipos de retraso lector. 4. Examinar la evolución de la alteración a distintos niveles de edad, en función de las variables estudiadas. 5. Emplear el mismo grupo de sujetos a lo largo de los diversos estudios con el fin de conocer su ejecución diferencial en las distintas variables. 90 alumnos de seis colegios de EGB de Granada, tres estatales y tres privados. Los alumnos se dividen en tres grupos con 30 sujetos cada uno: sujetos disléxicos, lectores retrasados y lectores normales. Los estudios experimentales se aplican de forma individualizada. Las pruebas realizadas se dividen en cinco grupos o estudios: 1. Estudio del registro de los movimientos oculares durante la lectura de dos textos de diferente nivel de dificultad. 2. Estudio del registro de los movimientos de los ojos durante una tarea de rastreo ocular. 3. Diferencias en persistencia visual entre disléxicos, lectores retrasados y lectores normales. 4. Diferencias entre los 'soas' de disléxicos, lectores retrasados y normales en una tarea de enmascaramiento retroactivo. 5. Diferencias en la velocidad de decodificación y acceso léxico. Se hacen estudios comparativos entre los tres grupos de la muestra. Escala de inteligencia de Wisc; prueba EDIL-1 (exploración de las dificultades en lectura); prueba de lectura; test de análisis de lectoescritura (TALE). Medias y desviaciones típicas; análisis de varianza; análisis de Newman-keuls; tratamiento informático de datos. 1. En el primer y segundo estudio se pone de manifiesto la existencia de diferencias significativas en todos los parámetros de los movimientos oculares entre lectores normales y disléxicos independientemente de la dificultad del texto. En lo que respecta a los lectores retrasados las diferncias encontradas son una consecuencia de su ineficacia lectora. 2. Existe una fuerte relación entre la dislexia y la presencia de pautas alteradas de los movimientos oculares. 3. Los disléxicos presentan una mayor duración de la persistencia visual que los normales y esta diferencia se mantiene independientemente del método de medida empleado. 4. En el estudio cuarto y quinto se demuestra que existen diferencias entre disléxicos y normales en cuanto a la velocidad de procesamiento de la información. Algunas formas de dislexia estan ligadas a la existencia de alteraciones en los movimientos oculares y resultaría conveniente la realización de nuevos estudios con métodos más precisos y fiables para su diagnóstico.
Resumo:
Seleccionado en la convocatoria: Ayudas a la innovación e investigación educativa en centros docentes de niveles no universitarios, Gobierno de Aragón 2010-11
Resumo:
El manual de cátedra que se presenta a continuación, como todo manual, no pretende sentar las bases teóricas sobre el objeto de estudio, ni convertirse en doctrina de obligada referencia. Simplemente busca acercar a los estudiantes e interesados en el tema, al estado del arte en lo que al derecho del comercio electrónico y de Internet se refiere. Dado que el autor ha orientado en la Universidad del Rosario las cátedras Derecho de Comercio Electrónico –en pregrado- y Legislación del Comercio Electrónico, en posgrado, éste ha tenido la oportunidad de validar parte importante del material con los estudiantes, quienes con sus aportes y comentarios han nutrido el texto. El trabajo se inscribe en la línea de investigación en Derecho Comercial, pues cuenta con una estructura que analiza algunos de los problemas jurídicos más importantes, identificados mediante la práctica profesional, en la utilización de las nuevas tecnologías de la información y la comunicación.
Resumo:
Documento en formato electrónico (PDF)
Resumo:
Búsqueda de una medida del procesamiento de la información, dentro de un contexto teórico experimental. Uno de los puntos débiles que presenta el marco de los niveles de procesamiento, es la medida del constructo 'profundidad' como parámetro básico que define el grado de procesamiento que reciben las distintas características de los estímulos. Primera fase experimental: a) Primer experimento: 70 sujetos, estudiantes de licenciatura. Fueron seleccionados en base a: nivel cultural, edad, dominancia hemisférica -diestra-; b) Segundo experimento: 170 sujetos con las mismas características que los del experimento anterior. Segunda fase experimental: a) Tercer experimento: 20 sujetos; b) Cuarto experimento: 20 sujetos.
Resumo:
1) Aplicar la metodología de la atención dividida a los nuevos planeamientos de los niveles de procesamiento. 2) Demostrar que el consumo atencional es mayor para las tareas semánticas, que para las tareas físicas. 3) Demostrar que la cantidad de atención requerida será mayor para los estímulos procesados con un grado de elaboración más extenso. 35 sujetos, estudiantes universitarios, de los cuales 20, 11 varones y 9 mujeres, actuaron como sujetos experimentales. De los 15 restantes, 10 fueron utilizados en el diseño piloto. El resto actuaron como jueces. Los sujetos se seleccionaron para el experimento final de acuerdo con la edad, el sexo, nivel cultural y pertenencia a la sección de Psicología. Diseño factorial 2x2x2 de factores cruzados. El primer factor lo constituirá la variable 'nivel de profundidad de procesamiento', con dos niveles: semántico y físico. El segundo factor lo constituirá la variable: 'grado de elaboración', con dos niveles: un atributo y dos atributos. El tercer factor lo constituirá la presencia o no de una tarea secundaria, que consistirá en la presentación de una carga de memoria, lista de 8 letras, para su retención y posterior recuerdo. Las dos primeras variables son intragrupo y la tercera variable es intergrupo. Como variable dependiente se utilizó el 'tiempo de reacción' de los sujetos ante los estímulos. 1) 105 tarjetas estímulos pictóricos; 2) Hoja de recogida de datos; 3) Hoja de respuesta para los sujetos; 4) Magnetofón y casete; 5) Hoja de instrucciones; 6) Hoja con preguntas acerca de los estímulos; 7) Taquistoscopio tipo Gerbrand; 8) Dos cronoscopios; 9) Dos interruptores para respuesta afirmativa y negativa. 1) Análisis de varianza de tres modos de clasificación con medidas repetidas en dos de ellas, para explicar la influencia de cada variable de forma aislada,así como las interacciones entre variable. 2) Prueba estadística W2, Hays, para averiguar cual de las variables había tenido más influencia a la hora del experimento. 1) No hay diferencias significativas en tiempo de reacción entre condiciones de doble tarea y la condición de tarea aislada. 2) Existen diferencias significativas en el rendimiento de la prueba de memoria, en la interacción entre juicios semánticos y perceptivos;los juicios de tipo semántico son analizados a un nivel más profundo que los juicios de tipo físico. 3) Existen diferencias significativas en tiempo de reacción entre los juicios que versan sobre un atributo y los que se refieren a dos atributos; estos resultados implican que el tiempo de reacción se incrementa a medida que el grado con que se elaboran los estímulos aumenta. El hombre está capacitado para llevar a cabo procesamientos paralelos de los estímulos. Parece ser que los análisis más profundos requieren un mayor consumo atencional que los análisis menos profundos.