961 resultados para Laboratorio remotorobotica mobileweb applicationsmodel driven software architecture
Resumo:
El Mal de Río Cuarto es la enfermedad más importante en el cultivo de maíz, ya que produce severos daños y está muy difundida: en la actualidad ocupa una superficie cercana a 1.000.000 de has. Se han evaluado las pérdidas en plantas severamente afectadas en la zona endémica de la virosis determinándose niveles que oscilaron entre un 20 a un 40% según el período agrícola. El virus afecta otros cultivos tales como sorgo, trigo, avena, mijo, moha de Hungría y centeno además de numerosas malezas pertenecientes a las familias de las Poáceas y Cyperáceas. La morfología de la partícula observada en cortes ultra finos permitió modular la hipótesis de similitud o parentesco con la enfermedad llamada Maize Rough Dwarf (MRDV) presente en el Mediterráneo; trabajos posteriores evidenciaron que tanto MRDV como el virus del Mal de Río Cuarto mostraron 10 bandas típicas de los Fijivirus. La enfermedad se transmite en la naturaleza en forma persistente mediante la especie Dephacodes kuschelli Fennah. Dada la importancia económica de la enfermedad se consideró prioritario lograr la cría y transmisión experimental de la virosis con insectos criados en laboratorio, ya que hasta el momento las transmisiones se llevaban a cabo con insectos provenientes de campo. El cumplimiento de este objetivo de trabajo permitirá el desarrollo de otras actividades tales como multiplicación del inóculo y su mantenimiento para la realización de estudios de caracterización biológica y molecular, purificación del virus, determinación de hospedantes diferenciales que permitirán establecer similitud o diferencias entre aislamientos locales y/o extranjeros, determinación de cultivares tolerantes o resistentes entre otras ventajas.
Resumo:
La congelación del semen porcino se ha caracterizado por ser una técnica que no ha logrado alcanzar altos índices de fertilidad, hecho que ha dificultado su aplicación práctica a terreno y parte de su progreso genético. El problema particular radica en que la calidad espermática, por factores poco conocidos, disminuye considerablemente al momento de la descongelación. Como consecuencia, las tasas de fecundidad, fertilidad y prolificidad son inferiores a las obtenidas mediante monta natural o inseminación artificial con semen fresco refrigerado. Pese a esta dificultad, la fertilidad es adecuada para casos de importación, exportación, introducción de nuevas líneas de sangre y uso de semen de machos con alto mérito genético. (...) Entre los factores más importantes que afectan la fertilidad del semen congelado se citan el efecto individual de los machos, de mala congelabilidad, el efecto raza, el momento óptimo para inseminar a la hembra en celo, la estación del año y el tiempo de almacenaje del semen, entre otros. (...) Objetivos Generales: El objetivo de este trabajo es desarrollar un programa anual destinado, en una primera etapa, a mejorar la técnica de laboratorio con equipamiento de mayor desarrollo tecnológico y utilizando nuevos envases; en una segunda etapa a estudiar el efecto raza y el efecto individual, con un pool de semen de diferentes machos; y en una tercera etapa, consistente en aplicar el mejor semen criopreservado, en el momento biológico óptimo de la hembra en celo, con el fin de aumentar la fertilidad y prolificidad. Objetivos Específicos: 1. Primer Año Mejorar las técnicas de congelación utilizando nuevos equipos y estudiar la calidad del semen porcino congelado en micropajuelas (Mp) y bolsas plásticas (Bp) evaluando la capacidad fecundante por pruebas de laboratorio y pruebas de fertilidad en animales vivos. 2. Segundo Año Estudiar la calidad del semen porcino congelado en Mp y/o Bp utilizando un pool de semen de tres machos de razas diferentes y evaluar su capacidad fecundante por pruebas de fertilidad a campo. 3. Tercer Año Estudiar la calidad del semen porcino congelado en Mp y/o Bp, utilizando un pool de semen de tres machos diferentes e inseminándolo en el momento biológico óptimo del celo.
Resumo:
El subsuelo de la ciudad de Córdoba ha sido objeto de estudios por parte de nuestro grupo de investigación que han permitido desarrollar: * Un esquema geotécnico basado en la definición de unidades de mapeo de diferentes grados de detalle. * Bases de datos provenientes de estudios de suelos efectuados en sitios de construcción de obras de ingeniería. * Un sistema de procesamiento de datos implementado en Geobase (software específico). (...) Objetivos generales y específicos: El objetivo final de este programa es el de poder contar con un sistema que permita conocer los suelos presentes en cada lugar de la ciudad y su comportamiento geotécnico, con alto grado de confiabilidad. (...) Como objetivos específicos de esta etapa de trabajo se planea: 1. La retroalimentación del modelo generado a nivel de detalle. Se verificará la delimitación de las zonas que fueran dibujadas en los mapas como consecuencia de un análisis regional y la presencia de diversas unidades de mapeo geotécnico en cada perfil de suelo. Este es un objetivo permanente y es el que permite aumentar la dimensión de la Base[de datos]. (...) 2. Análisis estadístico de las variables geotérmicas acumuladas puntualmente en la Base de datos mediante el uso de técnicas geo-estadísticas de manera de obtener los valores probables de cada propiedad físico-mecánica del terreno de la ciudad y la homogeneidad estadística de las zonas trazadas. 3. Chequeo in situ de los valores probables: se ha planificado la verificación en el terreno de los parámetros obtenidos previamente. Para ello se realizarán tareas de campaña y ensayos de laboratorio. La comunidad de Córdoba podrá valerse del conocimiento de la distribución y del comportamiento geotécnico de los suelos para la planificación y racionalización del uso de la tierra, de los servicios y las construcciones públicas y privadas.
Resumo:
El presente proyecto se plantea el siguiente problema de investigación:¿Cuál es la eficacia de los entornos virtuales de enseñanza para optimizar los aprendizajes de Química? Se sostiene la hipótesis de que los entornos virtuales de enseñanza, empleados como mediación instrumental, son eficaces para optimizar los aprendizajes de química, particularmente facilitando la vinculación y reversibilidad entre "mundo micro y macroscópico"; capacidad que usualmente sólo se atribuye al trabajo experimental de laboratorio. Los objetivos propuestos son: Determinar la eficacia de entornos virtuales de enseñanza, como mediaciones instrumentales, para optimizar los aprendizajes de química en estudiantes de ingeniería. Implementar un entrono virtual de enseñanza de química, diseñado como mediación instrumental y destinado a estudiantes de dos carreras de ingeniería del IUA. Evaluar el desarrollo y los resultados de la innovación introducida. Comparar los resultados de la innovación con los resultados de la enseñanza usual. Derivar conclusiones acerca de la eficacia de la innovación propuesta. Socializar el conocimiento producido en ámbitos científico-tecnológicos reconocidos. Se generará un aula virtual en plataforma Educativa y utilidzando el laboratorio de computación de la institución se buscará desarrollar laboratorios virtuales donde se propondrán actividades de simulación de trabajo experimental. Los resultados esperados son: - Un Aula Virtual que cumpla funciones análogas a las de un laboratorio experimental. - Información válida y confiable acerca de la eficacia de la misma como medio para optimizar los aprendizajes de química. - Publicaciones en ámbitos científico-tecnológicos reconocidos que sometan a juicio público la innovación y la investigación efectuadas. La importancia del proyecto radica principalmente en poner a prueba la eficacia de los entornos virtuales para optimizar los aprendizajes de química, analogando tareas usualmente limitadas al trabajo experimental de laboratorio. Su pertinencia apunta a un replanteo del curriculo de los cursos de Química para estudiantes de Ingeniería.
Resumo:
Estudios epidemiológicos, reportan que la fobia social es uno de los trastornos de ansiedad de alta prevalencia en la población mundial, que oscila entre el 7 y el 13%. La incidencia de este trastorno se ubica entre el 13 y 14% en personas de 15 a 54 años, manifestándose antes de los 25 años (Furmark,et al 2002). De esta manera, se destaca la importancia de el estudio y abordaje de este trastorno en adolecentes, considerando que es en esta etapa del desarrollo donde se empieza a manifestar, y donde la intervención temprana se torna fundamental. Este trastorno afecta la vida familiar, social y laboral de una persona, dado que la persona evita exponerse a lugares públicos o a situaciones donde anticipa la evaluación negativa. Las consecuencias del trastorno son variadas, ya que los individuos pueden perder su trabajo por miedo a la exposición, fracasar en los estudios o fracazar en la concertación de citas y la vida en pareja. El miedo a hablar en público, por otro lado, es una forma particular de ansiedad social que implica la preocupación de que el público va a pensar que el rendimiento de uno es inadecuado (o que evaluaranm negativamente la persona o el rendimiento de la misma). La relevancia social de esta problemática requiere de tratamientos más eficientes, dada la creciente prevalencia de estos trastornos en los últimos años a nivel internacional. En este sentido la terapia de exposición en diferentes modalidades, acompañada dereestructuración cognitiva se ha transformado en un abordjae de elección para estos trastornos ara el tratamiento de fobia social. Entre las modalidades más novedosas en la actualidad, se destaca la utilización de programas basados en escenarios virtuales y la utilización de la telepsicología para el tratamiento de la fobia social y el miedo a hablar en público. La exposición con realidad virtual o mediante simulaciones no sólo da la oportunidad de capitalizar las habilidades de imaginación del paciente sino también las suplementa con experiencias visuales y auditivas simuladas. Además expone al paciente a un ambiente virtual que contiene la situación temida en vez de llevar al paciente a una situación real o pedirle que imagine los estímulos asociados, aumentando de esta manera la eficiencia del tratamiento En particular en nuestro país, la investigación en este campo es inexistente y sus aplicaciones son incipientes, por lo que la adaptación, desarrollo y evaluación de programas de tratamiento clínico utilizando modalidades terapéuticas innovadoras, a la vez de otorgar atención a la comunidad que padece este tipo de trastornos, es fundamental Por esto, el propósito del presente proyecto es el desarrollo, la instrumentación y evaluación de software de telepsicología y tecnologías de realidad virtual orientados a la valoración y tratamiento de la Fobia Social y el miedo a Hablar en Público. Específicamente, el objetivo es adaptar, instrumentar y evaluar un sistema de tratamiento con base en ambientes virtuales para el tratamiento de la Fobia Social transferidos a nuestro equpio de investigación por el grupo de investigación del Laboratorio de Enseñanza Virtual y Ciberpsicología de la UNAM. También nos proponemos desarrollar dos softwares de telepsicología con videos digitales para la valoración y tratamiento del miedo a hablar en público. Finalmente, otro objetivo es el desarrollo de un instrumento de evaluación diagnóstica de la Fobia Social y el Miedo a Hablar en Público en estudiantes universitarios, el cual será incorporado a un software junto a los videos digitales.
Resumo:
En la zona central semiárida del país en general, y en particular en las sierras de Córdoba, resulta de vital importancia conocer el comportamiento de los caudales tanto en épocas de crecidas como en períodos de estiaje. Por otra parte, los incendios en la cobertura vegetal pueden considerarse como un factor de disturbio debido al fuerte impacto que ejercen sobre los componentes del sistema. En los últimos años esta problemática se ha convertido un escenario recurrente en el medio local. En este sentido, la modelación matemática hidrológica constituye una herramienta para la caracterización de los recursos hídricos, en crecidas y estiajes, y permite la evaluación objetiva de los cambios producidos en las respuestas del sistema ante distintos impactos. Se considera como objetivo principal la caracterización de los caudales en la zona serrana de la provincia, y la modelación numérica del impacto producido por los incendios en caudales de estiajes, de crecidas y en los procesos de erosión superficial. Para ello se plantean tres lineas de trabajo: •Desarrollo de un modelo hidrológico conceptual, distribuido, integrado (superficial y subterráneo) y continuo especialmente orientado a representar el comportamiento hidrológico de las cuencas de pequeña y mediana escala. •Implementación de un modelo hidrológico distribuido acoplado a un modelo de calidad de aguas y de producción de sedimentos, antes y después de la ocurrencia de un incendio hipotético. •Implementación de un modelo hidrológico continuo, desarrollado en el ámbito del Laboratorio de hidráulica, simulando el impacto de los incendios en el hidrograma de caudales diarios, en particular sobre los caudales de estiaje. Se espera obtener un software que permita la caracterización de los caudales en estiajes y en crecidas y considere integradamente los flujos superficiales y subterráneos. Se pretende evaluar objetivamente el impacto de los incendios en caudales de crecidas, en la producción de sedimentos y erosión superficial que ellos producen. Comparando la respuesta del hidrograma y el sedimentograma resultante a la distribución de las áreas incendiadas y generando mapas de riesgos en función de estos resultados para la cuenca de aplicación. También se espera adaptar el modelo continuo al caso de estudio seleccionado, y desarrollar una metodología para el ajuste de parámetros hidrológicos en base a la ocurrencia de incendios que pueda ser aplicada a las condiciones locales. Implementar dicho modelo e inferir el cambio en la recurrencia de los caudales extremos de estiaje. Resulta atractivo contar con una herramienta de desarrollo local adaptada a las condiciones hidrológicas de la región, dada la escasez relativa del recurso y su importancia estratégica en el desarrollo futuro. Además se considera que éste constituye un primer intento de modelar numéricamente el impacto producido por los incendios en la provincia de Córdoba. En el ámbito de este proyecto se realizarán tres tesis de maestría.
Resumo:
Identificación y caracterización del problema. Uno de los problemas más importantes asociados con la construcción de software es la corrección del mismo. En busca de proveer garantías del correcto funcionamiento del software, han surgido una variedad de técnicas de desarrollo con sólidas bases matemáticas y lógicas conocidas como métodos formales. Debido a su naturaleza, la aplicación de métodos formales requiere gran experiencia y conocimientos, sobre todo en lo concerniente a matemáticas y lógica, por lo cual su aplicación resulta costosa en la práctica. Esto ha provocado que su principal aplicación se limite a sistemas críticos, es decir, sistemas cuyo mal funcionamiento puede causar daños de magnitud, aunque los beneficios que sus técnicas proveen son relevantes a todo tipo de software. Poder trasladar los beneficios de los métodos formales a contextos de desarrollo de software más amplios que los sistemas críticos tendría un alto impacto en la productividad en tales contextos. Hipótesis. Contar con herramientas de análisis automático es un elemento de gran importancia. Ejemplos de esto son varias herramientas potentes de análisis basadas en métodos formales, cuya aplicación apunta directamente a código fuente. En la amplia mayoría de estas herramientas, la brecha entre las nociones a las cuales están acostumbrados los desarrolladores y aquellas necesarias para la aplicación de estas herramientas de análisis formal sigue siendo demasiado amplia. Muchas herramientas utilizan lenguajes de aserciones que escapan a los conocimientos y las costumbres usuales de los desarrolladores. Además, en muchos casos la salida brindada por la herramienta de análisis requiere cierto manejo del método formal subyacente. Este problema puede aliviarse mediante la producción de herramientas adecuadas. Otro problema intrínseco a las técnicas automáticas de análisis es cómo se comportan las mismas a medida que el tamaño y complejidad de los elementos a analizar crece (escalabilidad). Esta limitación es ampliamente conocida y es considerada crítica en la aplicabilidad de métodos formales de análisis en la práctica. Una forma de atacar este problema es el aprovechamiento de información y características de dominios específicos de aplicación. Planteo de objetivos. Este proyecto apunta a la construcción de herramientas de análisis formal para contribuir a la calidad, en cuanto a su corrección funcional, de especificaciones, modelos o código, en el contexto del desarrollo de software. Más precisamente, se busca, por un lado, identificar ambientes específicos en los cuales ciertas técnicas de análisis automático, como el análisis basado en SMT o SAT solving, o el model checking, puedan llevarse a niveles de escalabilidad superiores a los conocidos para estas técnicas en ámbitos generales. Se intentará implementar las adaptaciones a las técnicas elegidas en herramientas que permitan su uso a desarrolladores familiarizados con el contexto de aplicación, pero no necesariamente conocedores de los métodos o técnicas subyacentes. Materiales y métodos a utilizar. Los materiales a emplear serán bibliografía relevante al área y equipamiento informático. Métodos. Se emplearán los métodos propios de la matemática discreta, la lógica y la ingeniería de software. Resultados esperados. Uno de los resultados esperados del proyecto es la individualización de ámbitos específicos de aplicación de métodos formales de análisis. Se espera que como resultado del desarrollo del proyecto surjan herramientas de análisis cuyo nivel de usabilidad sea adecuado para su aplicación por parte de desarrolladores sin formación específica en los métodos formales utilizados. Importancia del proyecto. El principal impacto de este proyecto será la contribución a la aplicación práctica de técnicas formales de análisis en diferentes etapas del desarrollo de software, con la finalidad de incrementar su calidad y confiabilidad. A crucial factor for software quality is correcteness. Traditionally, formal approaches to software development concentrate on functional correctness, and tackle this problem basically by being based on well defined notations founded on solid mathematical grounds. This makes formal methods better suited for analysis, due to their precise semantics, but they are usually more complex, and require familiarity and experience with the manipulation of mathematical definitions. So, their acceptance by software engineers is rather restricted, and formal methods applications have been confined to critical systems. Nevertheless, it is obvious that the advantages that formal methods provide apply to any kind of software system. It is accepted that appropriate software tool support for formal analysis is essential, if one seeks providing support for software development based on formal methods. Indeed, some of the relatively recent sucesses of formal methods are accompanied by good quality tools that automate powerful analysis mechanisms, and are even integrated in widely used development environments. Still, most of these tools either concentrate on code analysis, and in many cases are still far from being simple enough to be employed by software engineers without experience in formal methods. Another important problem for the adoption of tool support for formal methods is scalability. Automated software analysis is intrinsically complex, and thus techniques do not scale well in the general case. In this project, we will attempt to identify particular modelling, design, specification or coding activities in software development processes where to apply automated formal analysis techniques. By focusing in very specific application domains, we expect to find characteristics that might be exploited to increase the scalability of the corresponding analyses, compared to the general case.
Resumo:
Introducción: El recién nacido necesita una adecuada asistencia materna para lograr la competencia inmunológica inicial. Objetivos: • Demostrar la conformación del sistema inmune en las crías de diferentes especies en nuestra región en los primeros meses de vida. • Comparar las diferencias biológicas de la estructuración del sistema inmune en diferentes especies. Material y método: Diseño del estudio: de cohorte, observacional, descriptivo, análitico. Especies a estudiar: equinos, caprinos, camélidos sudamericanos y caninos. Se realizará dosaje de inmunoglobulinas en suero y calostro de la madre y suero de la cría mediante una cinética preestablecida. Se medirá la producción de anticuerpos específicos y su transferencia a través de calostro. Las muestras son almacenadas en freezer -80°C hasta su procesamiento en el Laboratorio de Enfermedades Infecciosas y Zoonosis e Inmunología (UCC). La medición de inmunoglobulinas se realizará mediante inmunodifusión radial según la técnica de Mancini. La lectura de los halos se realizará mediante toma de imágenes y medición de los diámetros correspondientes, empleando a través del software Philips CamSuite Capture V. 2.0.15.0. También se comparara el dosaje cuantitativo con la medición cualitativa de las Inmunoglobulinas mediante el Test de coagulación con glutaraldehído. Se evaluara la estructura celular del sistema inmune a través del recuento y fórmula leucocitaria del hemograma. Tamaño muestral y análisis estadístico. El tamaño muestral se calcula según el criterio de Freeman y cols, que propone diez eventos de interés por variable analizada. Se determina 30 animales por especie. Para realizar comparaciones de medias se utilizará prueba t apareada (para 2 muestras dependientes) o prueba t de diferencia de medias (para muestras independientes), según correspondiera. En todos los casos el nivel de significación será menor a 0,05. Se realizará un análisis de los componentes principales, correlacionando de manera lineal las distintas variables en las diferentes especies estudiadas. Resultados esperados y utilidad de los mismos: La originalidad del trabajo tiene dos aspectos fundamentales. El primero se basa en el material utilizado, diseño y comparación entre especies. El segundo, es la importancia productiva que tiene el reconocer un mecanismo fisiológico fundamental para el desarrollo de las crías y establecer la dinámica de la transferencia de la inmunidad con datos regionales de las especies estudiadas.
Resumo:
v.31:no.34(1949)
Resumo:
Transmission of Cherenkov light through the atmosphere is strongly influenced by the optical clarity of the atmosphere and the prevailing weather conditions. The performance of telescopes measuring this light is therefore dependent on atmospheric effects. This thesis presents software and hardware developed to implement a prototype sky monitoring system for use on the proposed next-generation gamma-ray telescope array, VERITAS. The system, consisting of a CCD camera and a far-infrared pyrometer, was successfully installed and tested on the ten metre atmospheric Cherenkov imaging telescope operated by the VERITAS Collaboration at the F.L. Whipple Observatory in Arizona. The thesis also presents the results of observations of the BL Lacertae object, 1ES1959+650, made with the Whipple ten metre telescope. The observations provide evidence for TeV gamma-ray emission from the BL Lacertae object, 1ES1959+650, at a level of more than 15 standard deviations above background. This represents the first unequivocal detection of this object at TeV energies, making it only the third extragalactic source seen at such levels of significance in this energy range. The flux variability of the source on a number of timescales is also investigated.
Resumo:
The research described in this thesis was developed as part o f the Information Management for Green Design (IMA GREE) Project. The 1MAGREE Project was founded by Enterprise Ireland under a Strategic Research Grant Scheme as a partnership project between Galway Mayo Institute o f Technology and C1MRU University College Galway. The project aimed to develop a CAD integrated software tool to support environmental information management for design, particularly for the electronics-manufacturing sector in Ireland.
Resumo:
FUNDAMENTO: A estandardização do padrão de imagens utilizada dentro da medicina foi realizada em 1993 por meio do padrão DICOM (Digital Imaging and Communications in Medicine). Diversos exames utilizam esse padrão e cada vez mais são necessários softwares capazes de manipular esse tipo de imagem, porém esses softwares geralmente não têm o formato livre e de código aberto, e isso dificulta o seu ajuste para os mais diferentes interesses. OBJETIVO: Desenvolver e validar um software livre e de código aberto capaz de manipular imagens DICOM de exames de angiotomografia de coronárias. MÉTODOS: Desenvolvemos e testamos o software intitulado ImageLab na avaliação de 100 exames selecionados de forma randômica por meio de um banco de dados. Foram realizadas 600 análises divididas por dois observadores utilizando o ImageLab e um outro software comercializado junto a aparelhos de tomografia computadorizada Philips Brilliance, na avaliação da presença de lesões e placas coronarianas nos territórios do Tronco da Coronária Esquerda (TCE) e na Artéria Descendente Anterior (ADA). Para avaliar as concordâncias intraobservador, interobservadores e intersoftware, utilizamos concordância simples e estatística Kappa. RESULTADOS: As concordâncias observadas entre os softwares foram em geral classificadas como substancial ou quase perfeitas na maioria das comparações. CONCLUSÃO: O software ImageLab concordou com o software Philips na avaliação de exames de angiotomografia de coronárias especialmente em pacientes sem lesões, com lesões inferiores a 50% no TCE e inferiores a 70% na ADA. A concordância para lesão >70% na ADA foi menor, porém isso também é observado quando se utiliza o padrão de referência anatômico.
Resumo:
Magdeburg, Univ., Fak. für Informatik, Diss., 2011
Resumo:
Feature modeling, embebbed software, software product lines, tool support
Resumo:
Systemidentification, evolutionary automatic, data-driven model, fuzzy Takagi-Sugeno grammar, genotype interpretability, toxicity-prediction