15 resultados para Algoritmo evolutivo

em Cor-Ciencia - Acuerdo de Bibliotecas Universitarias de Córdoba (ABUC), Argentina


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los bosques nativos del Centro Argentino disminuyen rápidamente debido a talas, incendios y expansión agrícola y urbana. Se pierden especies vegetales, entre ellas muchas con valor de uso tradicional o potencial. Se plantea como objetivo global, continuar y profundizar las actividades iniciadas en el Jardín Botánico Gaspar Xuárez sj (JBGXsj), con respecto a conservar, recuperar y domesticar recursos fitogenéticos autóctonos para el uso sustentable, a través de la investigación y la educación. Los sitios naturales en áreas urbanas son valiosos espacios educativos donde muchos ciudadanos toman contacto directo con la naturaleza; tienen un potencial interesante en la formación de líderes ambientales. Se dará continuidad al programa de conservación y enriquecimiento del remanente de Espinal del JBGXsj, valorado como aula verde y como parte integrante del Banco de Germoplasma del JBGXsj. Esta forma de conservación, in situ, permite mantener especies, interacciones y arreglos espaciales típicos. A su vez se conservará ex situ en el Banco, nuevas semillas y plantas vivas de especies del centro del país, priorizando las de valor etnobotánico tradicional o potencial. El material y la información servirán para investigación, propagación y educación. El material se evaluará y caracterizará por peso de 1000 semillas, poder germinativo y viabilidad de semillas almacenadas. Se estudiará la domesticación de especies ecológicamente vulnerables que presenten potencial de uso múltiple, y que además permitan promover sinergia con otros proyectos de investigación en la UCC. Se estudiarán características agronómicas y biológicas para el cultivo intensivo. Se formarán recursos humanos en investigación y técnica, a través de pasantías y talleres. Se desarrollará un programa educativo enfocado a conservación, interpretación ambiental y cambios actitudinales para el desarrollo sustentable. Se motivará y dará conocimiento a docentes y alumnos de instituciones educativas y público en general. Se realizarán visitas guiadas por senderos interpretativos de contenido ecológico, etnobotánico y evolutivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los bosques nativos del Centro Argentino disminuyen rápidamente debido a talas, incendios y expansión agrícola y urbana. Se pierde una rica biodiversidad de especies nativas, entre ellas muchas con valor tradicional o uso potencial. El Jardín Botánico “Gaspar Xuárez S.J” se dedica a investigar, conservar y restaurar este recurso. Se conserva ex situ, en un Banco de Germoplasma, semillas y plantas vivas coleccionadas in situ de un amplio conjunto de especies, priorizando las de valor etnobotánico tradicional o uso potencial. El material biológico y la información sirven a la propagación, educación e investigación. Se ejecuta un programa de restauración, manejo ecológico y conservación in situ en un Parque Autóctono de 12 hectáreas en el predio del campus universitario, remanente del Espinal de Llanura. Se desarrolla un programa educativo. Se sensibiliza, brinda conocimiento y prácticas de investigación a maestros y alumnos de escuelas primarias y secundarias de la región (Departamentos Capital, Colón, Santa María) en la conservación de los recursos naturales como requisito previo para una mejor calidad de vida apoyando el afianzamiento de actitudes responsables. El conocimiento y la valoración de usos tradicionales y potenciales de flora nativa, se logra mediante visitas guiadas por senderos Interpretativos de contenido ecológico etnobotánico y evolutivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El trabajo apunta a determinar el origen y naturaleza de las estrellas de C deficientes en H y por lo tanto, su relación con las restantes estrellas de nuestra galaxia. Apunta a determinar la edad y el estado evolutivo de estas estrellas. En lo que se refiere a las atmósferas, se trata de desarrollar una rutina que calcule en forma automática un modelo, tomando debidamente en cuenta las dificultades del problema (apartamiento de LTE, transporte convectivo, etc.), de modo de poderlo aplicar al estudio e interpretación de los espectros de las estrellas HdC. Objetivos Contribuye a clarificar la naturaleza de las estrellas HdC: 1. Una correcta identificación de las estrellas de esta clase por las características que presentan sus espectros. 2. Determinar la abundancia de los distintos elementos en sus atmósferas. 3. Determinar su luminosidad intrínseca. 4. Poder decidir cuáles son las características cinemáticas del grupo. Dentro del tema de las atmósferas estelares, es de interés contar con una rutina que sobre la base de ciertos datos básicos (temperatura efectiva, composición química y gravedad superficial) calcule un modelo con un mínimo de intervención externa. Con este elemento disponible, hay temas interesantes que se están investigando dentro del grupo, como formación de líneas del He en estrellas B con atmósferas extendidas (en presencia de un viento estelar y de una cromósfera) y la distinta estructura que se debe esperar de una atmósfera de una estrella HdC, a causa de ser el C el siguiente elemento en importancia después del He.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las tareas de investigación involucran tres subproyectos interdependientes: A. Caracterización de muestras extensas. B. Caracterización de muestras delgadas y multiminares. C. Caracterización de partículas y aplicación a la contaminación ambiental. Se prevé utilizar la técnica de Monte Carlo para predecir espectros de FRX con sistema dispersivo en energías. Este mismo método será utilizado para describir la distribución angular de los electrones retrodifundidos para incidencia normal y no normal, y también para mejorar la descripción de la función distribución de ionizaciones f(pz) utilizando secciones eficaces realistas. Paralelamente, se desarrollarán modelos de los parámetros fo, go y h que determinan la función distribución de ionizaciones f(pz). Del mismo modo, se estudiará la caracterización de muestras delgadas y estratificadas. Para ello se realizarán simulaciones Monte Carlo utilizando los resultados previstos en el párrafo anterior y se harán determinaciones experimentales con la microsonda electrónica de sistemas multilaminares simples y multicomponentes. Se extenderán las aplicaciones del programa MULTI desarrollado en nuestro grupo para cuantificación de muestras extensas, láminas delgadas y partículas. En este sentido se implementará un algoritmo para cuantificar muestras con picos no detectables, se evaluarán los errores en las concentraciones calculadas y se incluirá el reforzamiento por fluorescencia con las líneas K beta. Por otro lado, se implementará de un método de procesamiento de datos para el análisis de partículas en EPMA y su aplicación al estudio de la contaminación ambiental mediante el procesamiento de imágenes para la caracterización morfológica y química de partículas en suspensión, análisis de clusters. El objetivo final es la identificación y caracterización de fuentes de contaminación. Esta tarea será complementada con análisis global de la composición química en muestras de materia particulada mediante FRX, y el estudio de sus parámetros físicos mediante el método de simulación Monte Carlo. Se mejorará la estructura experimental de nuestro laboratorio poniendo en funcionamiento un microscopio electrónico Cambridge Stereoscan cedido por la Universidad de Barcelona conjuntamente con la capacidad analítica que ha sido adquirida para extender sus posibilidades de aplicación, y se instalará un equipo de FRX desarrollado en nuestro grupo con accesorios recientemente adquiridos. El desarrollo y solución de los problemas propuestos permitirá mejorar la formación integral de estudiantes en distintas etapas de su carrera de doctorado y recientemente doctorados, ya que presentan además de un aspecto básico, uno aplicado, pues tienden a la solución de situaciones concretas de interés biológico, ambiental y tecnológico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hasta el momento no hay una explicación definitiva sobre los mecanismos etiopatogénicos de la miocardiopatía chagásica. A partir de las alteraciones farmacológicas y lesiones histopatológicas descriptas en trabajos anteriores y coincidiendo con otros autores, pensamos que el compromiso de la perfusión vascular y las reacciones de autoinmunidad podrían involucrar modificaciones en los receptores beta cardíacos. Hemos realizado un seguimiento evolutivo de estos receptores desde los 35 días a los 135 días post inoculación con tripomastigotes cepa Tulahuen y comprobamos que las alteraciones histológicas y farmacológicas se correlacionan con los cambios de afinidad y densidad de dichos receptores de acuerdo a la etapa en estudio (aguda, indeterminada y crónica). Asimismo se demostró que la cantidad de Trypanosoma cruzi que ingresa al huésped determina y acelera la evolución de la miocardiopatía chagásica. Continuando con la línea de estudio de los receptores beta cardíacos en los distintos estadíos de la enfermedad chagásica experimental, nos proponemos estudiar las características dinámicas de las membranas miocárdicas determinando su composición en fosfolípidos y otros componentes polares. A la vez se plantea estudiar si el tratamiento con beta bloqueante incide en los desórdenes que se producen en los receptores beta cardíacos de animales inoculados con T. cruzi , cepa Tulahuen. Por lo antes mencionado, se intenta lograr un aporte que desde el área básica se podría dar para esclarecer la fisiopatogenia de la miocarditis chagásica y colaborar en el enfoque de nuevas acciones terapéuticas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Analizar desde la arqueología los cambios registrados en una sociedad ante la interacción con otra dominante puede resultar en interesantes observaciones en términos de adaptación y evolución de grupos, tanto en una escala temporal relativamente breve como en un tiempo evolutivo más amplio. El caso de estudio que se viene desarrollando desde proyectos anteriores se centra en los cambios en la eficiencia adaptativa de las estrategias implementadas por los grupos indígenas del Valle de Copacabana, Córdoba, ante tres situaciones culturalmente distintas: pre-contacto hispano-indígena, de contacto y post contacto. Tomando a la eficiencia energética como medida de adaptabilidad, se utilizaron modelos cuantitativos y cualitativos para analizar comparativamente estas tres situaciones, y ponderar la modificación de la estrategia adaptativa global en un sentido más amplio. Como una consecuencia de ello, en la actualidad, la investigación está centrada en los problemas vinculados a los mecanismos de cambio y su registro arqueológico. (...) Este proyecto responde a la necesidad de analizar los procesos de cambio socio-cultural a través del estudio secuencial de la producción y uso de la tecnología en la situación de pre-contacto hispano indígena en un sitio del NO de la Provincia de Córdoba. El método consiste en la determinación microscópica de desechos no intencionales en los sedimentos del sitio Cementerio, Copacabana. Los mismos son inspeccionados con lupa binocular y microscopio, son clasificados y se realiza un análisis estadístico de su densidad, representatividad y distribución por sector intra-sitio. Con esto se planea: a) Analizar los patrones de depositación de microdesechos. b) Determinar áreas de actividad y de micro depositación primaria y/o secundaria intra-sitio y sus desplazamientos a través del tiempo. c) Instrumentar una sección de análisis de microarqueología en el Laboratorio de Arqueología del CIFFYH. d) Entrenar alumnos avanzados en las técnicas de análisis microarqueológicos. De la concreción del proyecto se podrá contribuir, por un lado, a una mejor comprensión del registro arqueológico del cambio social, en términos de producción de cultura material en el corto y largo plazo y, por otro, contribuir con la estandarización de una técnica novedosa dentro del ámbito de la arqueología argentina.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El análisis de las poblaciones humanas desde el punto de vista antropológico-evolutivo persigue como finalidad última el establecimiento de un diagnóstico sobre el estado de equilibrio/desequilibrio genético de la población estudiada, y sobre los factores -tanto biológicos cuanto culturales- que al momento presente constituyen los principales condicionantes de la situación encontrada. Establecer tal diagnóstico implica llegar a: 1) una estimación fiable de la variabilidad genética del grupo, y 2) una medición de la influencia de los procesos evolutivos (mutación, selección, migración y deriva génica) sobre tal variabilidad. Sabido es que un empobrecimiento genético puede ser causado por diferentes procesos que disminuyesen el tamaño de los grupos, cruzamientos de tipo endógamo y elevada consanguinidad, falta de nuevos genes llegados por inmigración, o a causa de la actuación conjunta de dichos factores, con diferente intensidad según el momento histórico y el lugar geográfico considerado. El requisito previo imprescindible para que pueda llevarse a cabo el enfoque planteado es el conocimiento exhaustivo de la estructura de la población, que indefectiblemente debe realizarse desde una doble perspectiva: 1) el análisis de los procesos demográficos determinantes de la misma, con sus concomitantes condicionantes socio-culturales, y 2) las posibles consecuencias a nivel biológico que éstos traen aparejadas, y que se constituyen en factores conductores de la posterior evolución poblacional. El presente plan de investigación forma parte de un proyecto más amplio que ha tomado como zona de estudio el área del valle de Traslasierra. El mismo se lleva a cabo desde hace cinco años en la Cátedra de Antropología de la Facultad de Ciencias Naturales de la Universidad Nacional de Córdoba, contando con el apoyo financiero del CONICET y de la SECYT Córdoba.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La verificación y el análisis de programas con características probabilistas es una tarea necesaria del quehacer científico y tecnológico actual. El éxito y su posterior masificación de las implementaciones de protocolos de comunicación a nivel hardware y soluciones probabilistas a problemas distribuidos hacen más que interesante el uso de agentes estocásticos como elementos de programación. En muchos de estos casos el uso de agentes aleatorios produce soluciones mejores y más eficientes; en otros proveen soluciones donde es imposible encontrarlas por métodos tradicionales. Estos algoritmos se encuentran generalmente embebidos en múltiples mecanismos de hardware, por lo que un error en los mismos puede llegar a producir una multiplicación no deseada de sus efectos nocivos.Actualmente el mayor esfuerzo en el análisis de programas probabilísticos se lleva a cabo en el estudio y desarrollo de herramientas denominadas chequeadores de modelos probabilísticos. Las mismas, dado un modelo finito del sistema estocástico, obtienen de forma automática varias medidas de performance del mismo. Aunque esto puede ser bastante útil a la hora de verificar programas, para sistemas de uso general se hace necesario poder chequear especificaciones más completas que hacen a la corrección del algoritmo. Incluso sería interesante poder obtener automáticamente las propiedades del sistema, en forma de invariantes y contraejemplos.En este proyecto se pretende abordar el problema de análisis estático de programas probabilísticos mediante el uso de herramientas deductivas como probadores de teoremas y SMT solvers. Las mismas han mostrado su madurez y eficacia en atacar problemas de la programación tradicional. Con el fin de no perder automaticidad en los métodos, trabajaremos dentro del marco de "Interpretación Abstracta" el cual nos brinda un delineamiento para nuestro desarrollo teórico. Al mismo tiempo pondremos en práctica estos fundamentos mediante implementaciones concretas que utilicen aquellas herramientas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo general de este proyecto es dilucidar los mecanismos de acción a nivel molecular de enzimas y proteínas involucradas en el metabolismo de colina en Pseudomonas aeruginosa, con énfasis en la identificación de residuos aminoacídicos críticos y regulación de la expresión de los genes en estudio. Los objetivos específicos que se palntean involucran abordajes bioquímicos y moleculares y serán llevados a cabo mediante técnicas de biología molecular y bioquímica (mutación sitio-dirigida, deleción génica, expresión y purificación de proteínas, fusión transcripcional a genes reporteros, etc). Planteo de hipótesis: las proteínas que se inducen por colina (fosforilcolina fosfatasa (PchP), fosfolipasa C (PlcH), acetilcolinestera (AchE), proteínas periplásmicas unidoras de colina (PUch) podrían compartir: a) una organización génica y responder a la regulación por proteínas regulatorias o a factores ambientales de manera similar; b) residuos aminoacídicos conservados que intervengan en la unión o interacción con diferentes ligandos, principalmente, colina. Para ello, se plantean los siguientes Objetivos Específicos: 1) identificar las zonas promotoras de los genes que codifican para PchP, PlcH, AchE y PUch, a fin de localizar posibles sitios de unión a proteínas reguladoras y los factores ambientales que afectan la actividad promotora. 2) determinar en las proteínas mencionadas los residuos aminoacídicos de importancia involucrados en la catálisis y en la interacción con ligandos, principalmente en la unión a compuestos de alquilamonio; 3) Se iniciarán estudios que demuestren la relación entre la inducción por colina de varios factores de patogenicidad la virulencia del microorganismo, empleando mutantes simples o múltiples en estos factores y como modelo de patogenicidad el nematodo C. elegans. A partir de los resultados obtenidos se pretende tener un conocimiento profundo sobre la regulación molecular y bioquímica de varias enzimas comprometidas en la patología que produce P. aeruginosa. Esto más el conocimiento de la fisiología de este microorganismo abre el camino para la búsqueda de posibles blancos de acción de drogas. Por otro lado, se espera tener un conocimiento integral sobre la regulación de la expresión de las actividades enzimáticas relacionadas con el metabolismo de colina y la respuesta de P. aeruginosa ante la presencia de compuestos de alquilamonio utilizados como nutrientes. Se espera conocer el papel que desempeña cada uno de los sitios de unión a los diferentes ligandos para el funcionamiento y control de las enzimas mencionadas y explicar el comportamiento diferencial de las enzimas frente a distintos sustratos y otros ligandos. El conocimiento de los sitios de unión a compuestos de alquilamonio permitirá encontrar esos dominios en diferentes proteínas del género Pseudomonas y otras bacterias Gram negativas. Desde el punto de vista evolutivo, se podrá comparar la similitud de los sitios de unión a colina entre proteínas de organismos eucariotas con procariotas (ej. PUch de bacterias Gram positivas, transportadores de colina, proteína C reactiva, AchE de eucariotas contra las encontradas en bacterias del género Pseudomonas, fosfolipasas A, C o D, etc.). Este proyecto permitirá concretar al menos dos tesis doctorales (Sanchez, Otero) más varios trabajos finales de grado (tesinas) que son y serán realizados por alumnos de la carrera de Microbiología en la UNRC. Les permitirá a los doctorandos y a los alumnos de grado adquirir una formación bastante integral ya que utilizarán herramientas de la fisiología general bacteriana, de la bioquímica clásica, de la biología molecular y de la bioinformática.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En nuestro proyecto anterior aproximamos el cálculo de una integral definida con integrandos de grandes variaciones funcionales. Nuestra aproximación paraleliza el algoritmo de cómputo de un método adaptivo de cuadratura, basado en reglas de Newton-Cote. Los primeros resultados obtenidos fueron comunicados en distintos congresos nacionales e internacionales; ellos nos permintieron comenzar con una tipificación de las reglas de cuadratura existentes y una clasificación de algunas funciones utilizadas como funciones de prueba. Estas tareas de clasificación y tipificación no las hemos finalizado, por lo que pretendemos darle continuidad a fin de poder informar sobre la conveniencia o no de utilizar nuestra técnica. Para llevar adelante esta tarea se buscará una base de funciones de prueba y se ampliará el espectro de reglas de cuadraturas a utilizar. Además, nos proponemos re-estructurar el cálculo de algunas rutinas que intervienen en el cómputo de la mínima energía de una molécula. Este programa ya existe en su versión secuencial y está modelizado utilizando la aproximación LCAO. El mismo obtiene resultados exitosos en cuanto a precisión, comparado con otras publicaciones internacionales similares, pero requiere de un tiempo de cálculo significativamente alto. Nuestra propuesta es paralelizar el algoritmo mencionado abordándolo al menos en dos niveles: 1- decidir si conviene distribuir el cálculo de una integral entre varios procesadores o si será mejor distribuir distintas integrales entre diferentes procesadores. Debemos recordar que en los entornos de arquitecturas paralelas basadas en redes (típicamente redes de área local, LAN) el tiempo que ocupa el envío de mensajes entre los procesadores es muy significativo medido en cantidad de operaciones de cálculo que un procesador puede completar. 2- de ser necesario, paralelizar el cálculo de integrales dobles y/o triples. Para el desarrollo de nuestra propuesta se desarrollarán heurísticas para verificar y construir modelos en los casos mencionados tendientes a mejorar las rutinas de cálculo ya conocidas. A la vez que se testearán los algoritmos con casos de prueba. La metodología a utilizar es la habitual en Cálculo Numérico. Con cada propuesta se requiere: a) Implementar un algoritmo de cálculo tratando de lograr versiones superadoras de las ya existentes. b) Realizar los ejercicios de comparación con las rutinas existentes para confirmar o desechar una mejor perfomance numérica. c) Realizar estudios teóricos de error vinculados al método y a la implementación. Se conformó un equipo interdisciplinario integrado por investigadores tanto de Ciencias de la Computación como de Matemática. Metas a alcanzar Se espera obtener una caracterización de las reglas de cuadratura según su efectividad, con funciones de comportamiento oscilatorio y con decaimiento exponencial, y desarrollar implementaciones computacionales adecuadas, optimizadas y basadas en arquitecturas paralelas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los bosques nativos del Centro de Argentina disminuyen rápidamente debido a talas, incendios y expansión agrícola y urbana. Se pierden especies vegetales, entre ellas muchas con valor de uso tradicional o potencial. Se plantea como objetivo global, continuar y profundizar las actividades iniciadas en el Jardín Botánico Gaspar Xuárez sj, con respecto a conservar, recuperar y domesticar recursos fitogenéticos nativos para el uso sustentable; a través de la investigación y la educación. Se conservará ex situ en el Banco de Germoplasma del JBGXsj, nuevas semillas y plantas vivas de especies nativas del centro del país, priorizando las de valor etnobotánico tradicional o potencial. El material y la información servirán para investigación, propagación y educación. El material se evaluará y caracterizará por peso de 1000 semillas, poder germinativo y viabilidad de semillas almacenadas. Se estudiará la domesticación de especies ecológicamente vulnerables que presenten potencial de uso múltiple y que, además, permitan promover sinergia con otros proyectos de investigación en la UCC. Se estudiarán características agronómicas y biológicas para su cultivo intensivo. Se formarán recursos humanos en investigación y técnica, a través de pasantías y talleres. Se desarrollará un programa educativo enfocado a conservación, interpretación ambiental y cambios actitudinales para el desarrollo sustentable. Se motivará y dará conocimiento a docentes y alumnos de instituciones educativas y público en general. Se realizarán visitas guiadas por senderos interpretativos de contenido ecológico, etnobotánico y evolutivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se indagará principalmente acerca del rol de los procesos neutrales, como la deriva génica, de procesos selectivos, como la selección natural mediada por polinizadores y de procesos históricos (geológicos y climáticos del pasado) en la diversificación floral tanto a escala microevolutiva como macroevolutiva. La heterogeneidad ambiental que se presenta en amplios rangos geográficos puede promover la diferenciación entre poblaciones debido a las diferencias en condiciones físicas y biológicas. De esta manera, especies ampliamente distribuidas ofrecen la oportunidad de explorar la dinámica de los procesos evolutivos que tienen lugar a nivel interpoblacional (Dobzhansky 1970, Thompson 1999). El estudio comparativo entre especies hermanas permite comprender cómo la selección natural (adaptación) y la inercia filogenética (herencia ancestral) han modelado los rasgos de las especies que observamos en la actualidad (Díaz 2002, Schluter 2000, Futuyma 2005). Uno de los usos más importantes de la información filogenética es el de reconstruir la historia del cambio evolutivo en caracteres adaptativos mediante su mapeo en la filogenia y la reconstrucción del estado de estos caracteres en el ancestro. Así, la asociación entre transición de caracteres y transiciones en grupos funcionales es una evidencia directa de la hipótesis adaptativa de que los rasgos son seleccionados por grupos funcionales de polinizadores. Una aproximación filogenética puede permitir identificar la dirección y el tiempo de evolución. Todos estos aspectos señalan la necesidad de adoptar una perspectiva conceptualmente integrada (morfológica, genética, filogenética, filogeográfica y ecológica) en el estudio de la biología evolutiva de las flores. Estudiar como actúan los procesos micro- y macroevolutivos en las interacciones planta-polinizador, en una dimensión espacial y temporal, arrojará resultados importantes tanto en el campo teórico como en el de la conservación. Por una parte, permitirá poner a prueba hipótesis relevantes sobre la adaptación de caracteres, mientras que explorará los procesos evolutivos que subyacen a las tramas de las interacciones planta-polinizador; por otro lado, comprender el rol de los cambios climáticos pasados en la diversificación biológica es interesante tanto desde una aproximación evolutiva como desde la biología de la conservación (Avise 2000; Moritz et al. 2000; Petit et al. 2003; Hewitt 2004). Géneros a ser estudiados en este proyecto: 1- Anarthrophyllum (Fabaceae,15 spp), 2- Monttea (Plantaginaceae, 3 spp), 3- Caleolaria (Calceolariaceae 3 spp), 4- Centris (Apidae, 1 spp), 5- Jaborosa (Solanaceae, 23 spp). Metodología: Mapeado de las poblaciones. Elenco de polinizadores, frecuencia. Obtención y medición de caracteres fenotípicos florales. Néctar: concentración y vol. Aceites (peso); Morfometría geométrica (Zelditch et al. 2005). Éxito reproductivo (Dafni & Kevan 2003). Caracteres genéticos: extracción, amplificación y secuenciación: en Calceolaria se utilizarán 2 genes de cloroplasto trnH-psbA y trnS-trnG y genes anónimos nucleares de copia única (scnADN), para Jaborosa se utilizarán 3 genes de cloroplasto (trnH-psbA, TrnD-trnT y ndhF-rp32) y el gen nuclear GBSSI waxy. Finalmente para Centris cineraria se usaría el tRNA ILE y NADH Deshidrogenada subunidad 2. Análisis filogenéticos de parsimonia (Goloboff et al. 2000, Kitching et al. 1998, Nixon 2002, Farris et al. 1996, Sorenson 1999); Filogeografía: reconstrucción de redes por parsimonia (Clement et al. 2000; Posada et al. 2000), análisis de clados anidados (NCPA). Se usarán las claves de inferencia (Templeton 2004). Para todos estos análisis se utilizarán los siguientes programas: DnaSP, Network, Arlequin, MrBayes, Paup, ModelTest, Beast, TNT, WinClada TCS y GeoDis. Estadística multivariada: Los diferentes rasgos florales mencionados se analizarán utilizando distancias de Gower (datos cualitativos) y euclídeas (datos cuantitativos) mediante la técnica multivariada ACoP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En dispositivos electrónicos de última generación destinados a funciones de comunicación o control automático, los algoritmos de procesamiento digital de señales trasladados al hardware han ocupado un lugar fundamental. Es decir el estado de arte en el área de las comunicaciones y control puede resumirse en algoritmos basados en procesamiento digital de señales. Las implementaciones digitales de estos algoritmos han sido estudiadas en áreas de la informática desde hace tiempo. Sin embargo, aunque el incremento en la complejidad de los algoritmos modernos permite alcanzar desempeños atractivos en aplicaciones específicas, a su vez impone restricciones en la velocidad de operación que han motivado el diseño directamente en hardware de arquitecturas para alto rendimiento. En este contexto, los circuitos electrónicos basados en lógica programable, principalmente los basados en FPGA (Field-Programmable Gate Array), permiten obtener medidas de desempeño altamente confiables que proporcionan el acercamiento necesario hacia el diseño electrónico de circuitos para aplicaciones específicas “ASIC-VLSI” (Application Specific Integrated Circuit - Very Large Scale Integration). En este proyecto se analiza el diseño y la implementación de aquitecturas electrónicas para el procesamiento digital de señales, con el objeto de obtener medidas reales sobre el comportamiento del canal inalámbrico y su influencia sobre la estimación y el control de trayectoria en vehículos aéreos no tripulados (UAV, Unmanned Aerial Vehicle). Para esto se propone analizar un dispositivo híbrido basado en microcontroladores y circuitos FPGA y sobre este mismo dispositivo implementar mediante algoritmo un control de trayectoria que permita mantener un punto fijo en el centro del cuadro de una cámara de video a bordo de un UAV, que sea eficiente en términos de velocidad de operación, dimensiones y consumo de energía.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El avance en la potencia de cómputo en nuestros días viene dado por la paralelización del procesamiento, dadas las características que disponen las nuevas arquitecturas de hardware. Utilizar convenientemente este hardware impacta en la aceleración de los algoritmos en ejecución (programas). Sin embargo, convertir de forma adecuada el algoritmo en su forma paralela es complejo, y a su vez, esta forma, es específica para cada tipo de hardware paralelo. En la actualidad los procesadores de uso general más comunes son los multicore, procesadores paralelos, también denominados Symmetric Multi-Processors (SMP). Hoy en día es difícil hallar un procesador para computadoras de escritorio que no tengan algún tipo de paralelismo del caracterizado por los SMP, siendo la tendencia de desarrollo, que cada día nos encontremos con procesadores con mayor numero de cores disponibles. Por otro lado, los dispositivos de procesamiento de video (Graphics Processor Units - GPU), a su vez, han ido desarrollando su potencia de cómputo por medio de disponer de múltiples unidades de procesamiento dentro de su composición electrónica, a tal punto que en la actualidad no es difícil encontrar placas de GPU con capacidad de 200 a 400 hilos de procesamiento paralelo. Estos procesadores son muy veloces y específicos para la tarea que fueron desarrollados, principalmente el procesamiento de video. Sin embargo, como este tipo de procesadores tiene muchos puntos en común con el procesamiento científico, estos dispositivos han ido reorientándose con el nombre de General Processing Graphics Processor Unit (GPGPU). A diferencia de los procesadores SMP señalados anteriormente, las GPGPU no son de propósito general y tienen sus complicaciones para uso general debido al límite en la cantidad de memoria que cada placa puede disponer y al tipo de procesamiento paralelo que debe realizar para poder ser productiva su utilización. Los dispositivos de lógica programable, FPGA, son dispositivos capaces de realizar grandes cantidades de operaciones en paralelo, por lo que pueden ser usados para la implementación de algoritmos específicos, aprovechando el paralelismo que estas ofrecen. Su inconveniente viene derivado de la complejidad para la programación y el testing del algoritmo instanciado en el dispositivo. Ante esta diversidad de procesadores paralelos, el objetivo de nuestro trabajo está enfocado en analizar las características especificas que cada uno de estos tienen, y su impacto en la estructura de los algoritmos para que su utilización pueda obtener rendimientos de procesamiento acordes al número de recursos utilizados y combinarlos de forma tal que su complementación sea benéfica. Específicamente, partiendo desde las características del hardware, determinar las propiedades que el algoritmo paralelo debe tener para poder ser acelerado. Las características de los algoritmos paralelos determinará a su vez cuál de estos nuevos tipos de hardware son los mas adecuados para su instanciación. En particular serán tenidos en cuenta el nivel de dependencia de datos, la necesidad de realizar sincronizaciones durante el procesamiento paralelo, el tamaño de datos a procesar y la complejidad de la programación paralela en cada tipo de hardware. Today´s advances in high-performance computing are driven by parallel processing capabilities of available hardware architectures. These architectures enable the acceleration of algorithms when thes ealgorithms are properly parallelized and exploit the specific processing power of the underneath architecture. Most current processors are targeted for general pruposes and integrate several processor cores on a single chip, resulting in what is known as a Symmetric Multiprocessing (SMP) unit. Nowadays even desktop computers make use of multicore processors. Meanwhile, the industry trend is to increase the number of integrated rocessor cores as technology matures. On the other hand, Graphics Processor Units (GPU), originally designed to handle only video processing, have emerged as interesting alternatives to implement algorithm acceleration. Current available GPUs are able to implement from 200 to 400 threads for parallel processing. Scientific computing can be implemented in these hardware thanks to the programability of new GPUs that have been denoted as General Processing Graphics Processor Units (GPGPU).However, GPGPU offer little memory with respect to that available for general-prupose processors; thus, the implementation of algorithms need to be addressed carefully. Finally, Field Programmable Gate Arrays (FPGA) are programmable devices which can implement hardware logic with low latency, high parallelism and deep pipelines. Thes devices can be used to implement specific algorithms that need to run at very high speeds. However, their programmability is harder that software approaches and debugging is typically time-consuming. In this context where several alternatives for speeding up algorithms are available, our work aims at determining the main features of thes architectures and developing the required know-how to accelerate algorithm execution on them. We look at identifying those algorithms that may fit better on a given architecture as well as compleme

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto se enmarca en la utlización de métodos formales (más precisamente, en la utilización de teoría de tipos) para garantizar la ausencia de errores en programas. Por un lado se plantea el diseño de nuevos algoritmos de chequeo de tipos. Para ello, se proponen nuevos algoritmos basados en la idea de normalización por evaluación que sean extensibles a otros sistemas de tipos. En el futuro próximo extenderemos resultados que hemos conseguido recientemente [16,17] para obtener: una simplificación de los trabajos realizados para sistemas sin regla eta (acá se estudiarán dos sistemas: a la Martin Löf y a la PTS), la formulación de estos chequeadores para sistemas con variables, generalizar la noción de categoría con familia utilizada para dar semántica a teoría de tipos, obtener una formulación categórica de la noción de normalización por evaluación y finalmente, aplicar estos algoritmos a sistemas con reescrituras. Para los primeros resultados esperados mencionados, nos proponemos como método adaptar las pruebas de [16,17] a los nuevos sistemas. La importancia radica en que permitirán tornar más automatizables (y por ello, más fácilmente utilizables) los asistentes de demostración basados en teoría de tipos. Por otro lado, se utilizará la teoría de tipos para certificar compiladores, intentando llevar adelante la propuesta nunca explorada de [22] de utilizar un enfoque abstracto basado en categorías funtoriales. El método consistirá en certificar el lenguaje "Peal" [29] y luego agregar sucesivamente funcionalidad hasta obtener Forsythe [23]. En este período esperamos poder agregar varias extensiones. La importancia de este proyecto radica en que sólo un compilador certificado garantiza que un programa fuente correcto se compile a un programa objeto correcto. Es por ello, crucial para todo proceso de verificación que se base en verificar código fuente. Finalmente, se abordará la formalización de sistemas con session types. Los mismos han demostrado tener fallas en sus formulaciones [30], por lo que parece conveniente su formalización. Durante la marcha de este proyecto, esperamos tener alguna formalización que dé lugar a un algoritmo de chequeo de tipos y a demostrar las propiedades usuales de los sistemas. La contribución es arrojar un poco de luz sobre estas formulaciones cuyos errores revelan que el tema no ha adquirido aún suficiente madurez o comprensión por parte de la comunidad. This project is about using type theory to garantee program correctness. It follows three different directions: 1) Finding new type-checking algorithms based on normalization by evaluation. First, we would show that recent results like [16,17] extend to other type systems like: Martin-Löf´s type theory without eta rule, PTSs, type systems with variables (in addition to systems in [16,17] which are a la de Bruijn), systems with rewrite rules. This will be done by adjusting the proofs in [16,17] so that they apply to such systems as well. We will also try to obtain a more general definition of categories with families and normalization by evaluation, formulated in categorical terms. We expect this may turn proof-assistants more automatic and useful. 2) Exploring the proposal in [22] to compiler construction for Algol-like languages using functorial categories. According to [22] such approach is suitable for verifying compiler correctness, claim which was never explored. First, the language Peal [29] will be certified in type theory and we will gradually add funtionality to it until a correct compiler for the language Forsythe [23] is obtained. 3) Formilizing systems for session types. Several proposals have shown to be faulty [30]. This means that a formalization of it may contribute to the general understanding of session types.