1000 resultados para Computación evolutiva
Resumo:
Las Tecnologías de la Información y la Comunicación (TIC) han alcanzando una fuerte expansión en la última década y se convierten en una estrategia clave para la educación científica y tecnológica. Actualmente se realizan significativas inversiones en computadoras e insumos acordes a esta tecnología lo que no garantiza que éstas mejores disponibilidades sean necesariamente conducentes a propuestas educativas aceptables, ya que la incorporación de las TIC en la educación científica no puede consistir en un mero cambio de soporte sin que esto se acompañe de una renovación constructivista del aprendizaje. También se observa un escaso desarrollo y aplicación de las TIC tanto en la formación de grado de las carreras científicas, como en la formación permanente de los docentes. A partir de lo expuesto, nos planteamos los siguientes problemas: ¿cómo generar cursos de formación docente con alternativas virtuales que garanticen la construcción, actualización y transferencia de conocimientos en las disciplinas científicas? ¿qué diseño de materiales se requiere para potenciar aprendizajes flexibles de calidad?, ¿qué dimensiones, variables e indicadores dan cuenta de procesos de comunicación en estos entornos?, ¿Cuáles son las principales estrategias que promueven los desarrollos tecnológicos? ¿De qué manera se lleva a cabo el seguimiento y evaluación de los desarrollos tecnológicos? Para dar respuesta a estos interrogantes nos planteamos este proyecto que tiene por objetivos: diseñar, desarrollar, implementar y evaluar materiales basados en un modelo constructivista que utiliza como soporte las TIC el marco de la "Enseñanza para la Comprensión". Analizar las relaciones que se establecen en el intercambio comunicativo a través de las TIC, ya sea de manera síncrona o asíncrona e identificar las estrategias de aprendizaje utilizadas por los estudiantes cuando trabajan con entornos virtuales. Se profundizará en los siguientes temas: "La materia y sus cambios", "Biotecnología" y "Dilemas investigativos a los que se enfrentan los científicos". Los dos primeros módulos estarán destinados a la formación de futuros docentes en Ciencias y a la formación permanente de docentes en ejercicio. Los usuarios del tercer módulo serán los estudiantes del ciclo de nivelacion. Se propone desarrollar instrumentos de evaluación, adaptando indicadores que sirvan para evaluar el modelo, el diseño de los materiales, el medio tecnológico, la eficiencia de estos programas con TIC. Se van a definir variables que permitan identificar las estrategias de aprendizaje utilizadas por los usuarios de estos desarrollos tecnológicos y las relaciones que se establecen en el intercambio comunicativo de los entornos virtuales, haciendo hincapié en la lecto-escritura científica. Se utilizará la plataforma Moodle que permite la administración de los estudiantes, las interacciones sociales necesarias para integrar una comunidad de aprendizaje a través de los foros y correo electrónico y la evaluación continua de los aprendizajes. El desarrollo de los contenidos específicos y las actividades de aprendizaje se hará en CD interactivos elaborados con diferentes programas de computación. En el desarrollo de los materiales se incluyen algunas simulaciones interactivas que permiten comprender conceptos que habitualmente requerían experimentación fáctica. El estudio se enmarca en la combinación de dos enfoques metodológicos que integran técnicas y procedimientos de análisis tanto cuantitativos como cualitativos. Consideramos que esta investigación es una contribución teórica importante ya que propone mejorar un modelo para la enseñanza de las Ciencias Naturales introduciendo las TIC. Se espera realizar un aporte novedoso al campo de la Didáctica de las Ciencias con la obtención de los resultados y acciones tendientes a establecer una red de comunicaciones entre los docentes participantes y los investigadores involucrados en el programa, instalada en forma progresiva.
Resumo:
El presente proyecto se plantea el siguiente problema de investigación:¿Cuál es la eficacia de los entornos virtuales de enseñanza para optimizar los aprendizajes de Química? Se sostiene la hipótesis de que los entornos virtuales de enseñanza, empleados como mediación instrumental, son eficaces para optimizar los aprendizajes de química, particularmente facilitando la vinculación y reversibilidad entre "mundo micro y macroscópico"; capacidad que usualmente sólo se atribuye al trabajo experimental de laboratorio. Los objetivos propuestos son: Determinar la eficacia de entornos virtuales de enseñanza, como mediaciones instrumentales, para optimizar los aprendizajes de química en estudiantes de ingeniería. Implementar un entrono virtual de enseñanza de química, diseñado como mediación instrumental y destinado a estudiantes de dos carreras de ingeniería del IUA. Evaluar el desarrollo y los resultados de la innovación introducida. Comparar los resultados de la innovación con los resultados de la enseñanza usual. Derivar conclusiones acerca de la eficacia de la innovación propuesta. Socializar el conocimiento producido en ámbitos científico-tecnológicos reconocidos. Se generará un aula virtual en plataforma Educativa y utilidzando el laboratorio de computación de la institución se buscará desarrollar laboratorios virtuales donde se propondrán actividades de simulación de trabajo experimental. Los resultados esperados son: - Un Aula Virtual que cumpla funciones análogas a las de un laboratorio experimental. - Información válida y confiable acerca de la eficacia de la misma como medio para optimizar los aprendizajes de química. - Publicaciones en ámbitos científico-tecnológicos reconocidos que sometan a juicio público la innovación y la investigación efectuadas. La importancia del proyecto radica principalmente en poner a prueba la eficacia de los entornos virtuales para optimizar los aprendizajes de química, analogando tareas usualmente limitadas al trabajo experimental de laboratorio. Su pertinencia apunta a un replanteo del curriculo de los cursos de Química para estudiantes de Ingeniería.
Resumo:
En nuestro proyecto anterior aproximamos el cálculo de una integral definida con integrandos de grandes variaciones funcionales. Nuestra aproximación paraleliza el algoritmo de cómputo de un método adaptivo de cuadratura, basado en reglas de Newton-Cote. Los primeros resultados obtenidos fueron comunicados en distintos congresos nacionales e internacionales; ellos nos permintieron comenzar con una tipificación de las reglas de cuadratura existentes y una clasificación de algunas funciones utilizadas como funciones de prueba. Estas tareas de clasificación y tipificación no las hemos finalizado, por lo que pretendemos darle continuidad a fin de poder informar sobre la conveniencia o no de utilizar nuestra técnica. Para llevar adelante esta tarea se buscará una base de funciones de prueba y se ampliará el espectro de reglas de cuadraturas a utilizar. Además, nos proponemos re-estructurar el cálculo de algunas rutinas que intervienen en el cómputo de la mínima energía de una molécula. Este programa ya existe en su versión secuencial y está modelizado utilizando la aproximación LCAO. El mismo obtiene resultados exitosos en cuanto a precisión, comparado con otras publicaciones internacionales similares, pero requiere de un tiempo de cálculo significativamente alto. Nuestra propuesta es paralelizar el algoritmo mencionado abordándolo al menos en dos niveles: 1- decidir si conviene distribuir el cálculo de una integral entre varios procesadores o si será mejor distribuir distintas integrales entre diferentes procesadores. Debemos recordar que en los entornos de arquitecturas paralelas basadas en redes (típicamente redes de área local, LAN) el tiempo que ocupa el envío de mensajes entre los procesadores es muy significativo medido en cantidad de operaciones de cálculo que un procesador puede completar. 2- de ser necesario, paralelizar el cálculo de integrales dobles y/o triples. Para el desarrollo de nuestra propuesta se desarrollarán heurísticas para verificar y construir modelos en los casos mencionados tendientes a mejorar las rutinas de cálculo ya conocidas. A la vez que se testearán los algoritmos con casos de prueba. La metodología a utilizar es la habitual en Cálculo Numérico. Con cada propuesta se requiere: a) Implementar un algoritmo de cálculo tratando de lograr versiones superadoras de las ya existentes. b) Realizar los ejercicios de comparación con las rutinas existentes para confirmar o desechar una mejor perfomance numérica. c) Realizar estudios teóricos de error vinculados al método y a la implementación. Se conformó un equipo interdisciplinario integrado por investigadores tanto de Ciencias de la Computación como de Matemática. Metas a alcanzar Se espera obtener una caracterización de las reglas de cuadratura según su efectividad, con funciones de comportamiento oscilatorio y con decaimiento exponencial, y desarrollar implementaciones computacionales adecuadas, optimizadas y basadas en arquitecturas paralelas.
Resumo:
Se indagará principalmente acerca del rol de los procesos neutrales, como la deriva génica, de procesos selectivos, como la selección natural mediada por polinizadores y de procesos históricos (geológicos y climáticos del pasado) en la diversificación floral tanto a escala microevolutiva como macroevolutiva. La heterogeneidad ambiental que se presenta en amplios rangos geográficos puede promover la diferenciación entre poblaciones debido a las diferencias en condiciones físicas y biológicas. De esta manera, especies ampliamente distribuidas ofrecen la oportunidad de explorar la dinámica de los procesos evolutivos que tienen lugar a nivel interpoblacional (Dobzhansky 1970, Thompson 1999). El estudio comparativo entre especies hermanas permite comprender cómo la selección natural (adaptación) y la inercia filogenética (herencia ancestral) han modelado los rasgos de las especies que observamos en la actualidad (Díaz 2002, Schluter 2000, Futuyma 2005). Uno de los usos más importantes de la información filogenética es el de reconstruir la historia del cambio evolutivo en caracteres adaptativos mediante su mapeo en la filogenia y la reconstrucción del estado de estos caracteres en el ancestro. Así, la asociación entre transición de caracteres y transiciones en grupos funcionales es una evidencia directa de la hipótesis adaptativa de que los rasgos son seleccionados por grupos funcionales de polinizadores. Una aproximación filogenética puede permitir identificar la dirección y el tiempo de evolución. Todos estos aspectos señalan la necesidad de adoptar una perspectiva conceptualmente integrada (morfológica, genética, filogenética, filogeográfica y ecológica) en el estudio de la biología evolutiva de las flores. Estudiar como actúan los procesos micro- y macroevolutivos en las interacciones planta-polinizador, en una dimensión espacial y temporal, arrojará resultados importantes tanto en el campo teórico como en el de la conservación. Por una parte, permitirá poner a prueba hipótesis relevantes sobre la adaptación de caracteres, mientras que explorará los procesos evolutivos que subyacen a las tramas de las interacciones planta-polinizador; por otro lado, comprender el rol de los cambios climáticos pasados en la diversificación biológica es interesante tanto desde una aproximación evolutiva como desde la biología de la conservación (Avise 2000; Moritz et al. 2000; Petit et al. 2003; Hewitt 2004). Géneros a ser estudiados en este proyecto: 1- Anarthrophyllum (Fabaceae,15 spp), 2- Monttea (Plantaginaceae, 3 spp), 3- Caleolaria (Calceolariaceae 3 spp), 4- Centris (Apidae, 1 spp), 5- Jaborosa (Solanaceae, 23 spp). Metodología: Mapeado de las poblaciones. Elenco de polinizadores, frecuencia. Obtención y medición de caracteres fenotípicos florales. Néctar: concentración y vol. Aceites (peso); Morfometría geométrica (Zelditch et al. 2005). Éxito reproductivo (Dafni & Kevan 2003). Caracteres genéticos: extracción, amplificación y secuenciación: en Calceolaria se utilizarán 2 genes de cloroplasto trnH-psbA y trnS-trnG y genes anónimos nucleares de copia única (scnADN), para Jaborosa se utilizarán 3 genes de cloroplasto (trnH-psbA, TrnD-trnT y ndhF-rp32) y el gen nuclear GBSSI waxy. Finalmente para Centris cineraria se usaría el tRNA ILE y NADH Deshidrogenada subunidad 2. Análisis filogenéticos de parsimonia (Goloboff et al. 2000, Kitching et al. 1998, Nixon 2002, Farris et al. 1996, Sorenson 1999); Filogeografía: reconstrucción de redes por parsimonia (Clement et al. 2000; Posada et al. 2000), análisis de clados anidados (NCPA). Se usarán las claves de inferencia (Templeton 2004). Para todos estos análisis se utilizarán los siguientes programas: DnaSP, Network, Arlequin, MrBayes, Paup, ModelTest, Beast, TNT, WinClada TCS y GeoDis. Estadística multivariada: Los diferentes rasgos florales mencionados se analizarán utilizando distancias de Gower (datos cualitativos) y euclídeas (datos cuantitativos) mediante la técnica multivariada ACoP.
Resumo:
FUNDAMENTO: A prevalência da fibrilação atrial, os gastos com o sistema de saúde e a elevada morbidade e mortalidade associadas a ela, têm justificado a procura por novas abordagens terapêuticas. OBJETIVO: Avaliar a reprodutibilidade da técnica cirúrgica, a segurança e os resultados inicias da cirurgia vídeo-assistida para a ablação da fibrilação atrial isolada com radiofrequência bipolar. MÉTODOS: Dez pacientes (90% homens) com fibrilação atrial (50% paroxística) sintomática e refratária à terapia medicamentosa, sem doença cardíaca que requeresse cirurgia concomitante, foram submetidos à ablação da arritmia guiada por toracoscopia, no período de maio de 2007 a maio de 2008. Variáveis clínicas, laboratoriais e de imagem foram prospectivamente coletadas antes, durante e no seguimento pós-operatório. RESULTADOS: A cirurgia foi realizada conforme o planejado em todos os pacientes. Não houve lesão iatrogênica de estruturas intratorácicas ou óbitos. No seguimento médio de seis meses, 80% dos pacientes estão livres de fibrilação atrial. Houve melhora significativa dos sintomas de insuficiência cardíaca classe funcional New York Heart Association (2,4 ± 0,5 para 1,6 ± 0,7; p = 0,011). Não houve evidência de estenose de veias pulmonares à angiotomografia, nesta série. CONCLUSÃO: A cirurgia vídeo-assistida para o tratamento da fibrilação atrial é reprodutível e segura. Há melhora evolutiva dos sintomas de insuficiência cardíaca após a cirurgia.
Resumo:
FUNDAMENTO: Doenças do aparelho circulatório são a primeira causa de morte no Brasil. OBJETIVO: Correlacionar taxas de mortalidade por doenças do aparelho circulatório nos Estados de Rio de Janeiro, São Paulo, Rio Grande do Sul, e em suas capitais, entre 1980 e 2008, com indicadores socioeconômicos coletados a partir de 1949. MÉTODOS: Populações e óbitos obtidos no Datasus/MS. Calcularam-se taxas de mortalidade por doenças isquêmicas do coração, doenças cerebrovasculares, causas mal definidas, doenças do aparelho circulatório (DApCirc) e todas as causas, ajustadas pelo método direto e compensadas por causas mal definidas. Dados de mortalidade infantil foram obtidos nas secretarias estaduais e municipais de saúde e no IBGE. Dados de PIB e escolaridade foram obtidos no Ipea. As taxas de mortalidade e os indicadores socioeconômicos foram correlacionados pela estimação de coeficientes lineares de Pearson, para determinar a defasagem anual otimizada. Foram estimados os coeficientes de inclinação da regressão entre a dependente doença e a independente indicador socioeconômico. RESULTADOS: Houve redução da mortalidade nos três Estados, essa ocorreu especialmente por queda de mortalidade por doenças cardiovasculares, em especial das doenças cerebrovasculares. A queda da mortalidade por doenças do aparelho circulatório foi precedida por redução da mortalidade infantil, elevação do produto interno bruto per capita e aumento na escolaridade, com forte correlação entre indicadores e taxas de mortalidade. CONCLUSÃO: A variação evolutiva dos três indicadores demonstrou correlação quase máxima com a redução da mortalidade por DApCirc. Essas relações sinalizam a importância na melhoria das condições de vida da população para reduzir a mortalidade cardiovascular.
Resumo:
My work seeks, to observe if there is some variation at some evolutionary stage starting from the knowledge obtained starting from the study of learning and development motor, with reference to a controlled group. My research details the types of aquatic abilities that take place as a consequence of a specific program. My investigation uses a quantitative methodology that compares the moments of appearance of different evolutionary stages in a first phase and a qualitative methodology for the second phase that makes those learnings thake place as a consequence of my intervention. To elaborate this process I have used an inductive and deductive method, I have based my reserach on fifteen years, of experience of these practices and used the data that has been provided to me from other's author's investigations.
Resumo:
Para a utilização em infecções experimentais e xenodiagnósticos de infecções naturais por leishmânias dermotrópicas do Rio de Janeiro, estabelecemos, em laboratório, uma colônia de Lutzomyia intermedia apresentando aqui a metodologia seguida, juntamente com dados relativos ao rendimento e duração de cada fase evolutiva nas quatro primeiras gerações.
Resumo:
The demand for computational power has been leading the improvement of the High Performance Computing (HPC) area, generally represented by the use of distributed systems like clusters of computers running parallel applications. In this area, fault tolerance plays an important role in order to provide high availability isolating the application from the faults effects. Performance and availability form an undissociable binomial for some kind of applications. Therefore, the fault tolerant solutions must take into consideration these two constraints when it has been designed. In this dissertation, we present a few side-effects that some fault tolerant solutions may presents when recovering a failed process. These effects may causes degradation of the system, affecting mainly the overall performance and availability. We introduce RADIC-II, a fault tolerant architecture for message passing based on RADIC (Redundant Array of Distributed Independent Fault Tolerance Controllers) architecture. RADIC-II keeps as maximum as possible the RADIC features of transparency, decentralization, flexibility and scalability, incorporating a flexible dynamic redundancy feature, allowing to mitigate or to avoid some recovery side-effects.
Resumo:
Treball de recerca realitzat per alumnes d’ensenyament secundari i guardonat amb un Premi CIRIT per fomentar l'esperit científic del Jovent l’any 2008. Les alteracions del receptor de dopamina D2 són responsables de molts desordres neuronals que condueixen a malalties com el Parkinson, l’esquizofrènia i l’addicció a drogues. L’objectiu ha estat determinar quina espècie animal és més adient per substituir el teixit humà en l’estudi d’aquest receptor. Per dur a terme aquest estudi s’ha treballat amb nou espècies animals diferents en les quals s’ha relacionat, en funció de l’espècie, la concentració de receptor, la seva afinitat pels lligands agonistes i antagonistes, la seva relació evolutiva... El mètode més utilitzat per a la determinació i la quantificació de receptors hormonals als laboratoris d’investigació de les indústries farmacèutiques és la unió de radiolligands a membranes. Entre aquests experiments, els més emprats són els de desplaçament, en els quals el fàrmac no marcat competeix i desplaça el radiolligand dels centres d’unió del receptor i, tot seguit, es mesura la radioactivitat de la mostra amb un comptador de radioactivitat. Per fer aquest treball també ha calgut calcular la concentració de proteïnes per espectrofotometria i emprar tècniques d’homogeneïtzació i centrifugació. Després d’haver analitzat la concentració, l’afinitat i la relació filogenètica del receptor D2 de cada una de les espècies analitzades, es pot concloure que l’espècie ideal per estudiar aquest receptor, quan no es disposa de mostra humana, és un altre mamífer, i entre els estudiats es consideraria millor la vaca, ja que permet obtenir una gran quantitat de teixit, presenta un contingut apreciable de receptor i la seva afinitat per la dopamina és molt elevada.
Resumo:
En este proyecto se han visto dos sistemas de computación distribuida diferentes entre ellos: Condor y BOINC. Se exploran las posibilidades para poder conseguir que ambos sistemas logren trabajar conjuntamente, escogiendo la parte más efectiva de cada uno de los sistemas con el fin de complementarse.
Resumo:
JPEG2000 és el nou estàndard de compressió d’imatges impulsat pel Joint Photographics Experts Group, el qual defineix un protocol eficient per la transmissió interactiva d’imatges, anomenat JPIP. El Group on Interactive Coding of Images (GICI) té una implementació d’aquest protocol, CADI. En aquest projecte es realitza l’implementació del client d’aquest protocol en un dispositiu mòbil. Per això s’ha realitzat un estudi de les plataformes mòbils que hi ha actualment en el mercat. Finalment s’han proposat millores, en el descodificador, per reduir el temps de computació i la carrega de memòria.
Resumo:
Projecte de recerca elaborat a partir d’una estada a la Université de Toulouse 2 – Le Mirail entre gener i juny del 2007. En concret, l’estada efectuada ha suposat la integració de qui signa aquesta memòria dins l’equip al-Andalus/Hispaniae, dirigit pel professor Philippe Sénac, una de les diverses branques que conformen el grup FRAMESPA d’aquella universitat, unitat de recerca adscrita al CNRS (UMR 5136). El títol proposat per al contingut de la recerca en la sol•licitud presentada, Evolució del poblament i organització del territori a la Catalunya interior a l’Alta Edat Mitjana, encapçalava un pla de treball que tenia per objectiu la recopilació i l’anàlisi de dades arqueològiques i textuals que oferissin un escenari a partir del qual establir una seqüència evolutiva en relació a les diferents tendències pel que fa al poblament tardoantic i altmedieval en dues zones diferenciades com són les conques mitjanes dels rius Llobregat i Cardener, a la Catalunya Central, i la capçalera del riu Fluvià, a la Garrotxa. Així, s’han pogut detectar, a partir de la contrastació de les diferents dades, fenòmens diversos que reflecteixen la incidència dels successius canvis històrics a nivell territorial i de poblament.
Resumo:
High Performance Computing is a rapidly evolving area of computer science which attends to solve complicated computational problems with the combination of computational nodes connected through high speed networks. This work concentrates on the networks problems that appear in such networks and specially focuses on the Deadlock problem that can decrease the efficiency of the communication or even destroy the balance and paralyze the network. Goal of this work is the Deadlock avoidance with the use of virtual channels, in the switches of the network where the problem appears. The deadlock avoidance assures that will not be loss of data inside network, having as result the increased latency of the served packets, due to the extra calculation that the switches have to make to apply the policy.
Resumo:
Las aplicaciones de alineamiento múltiple de secuencias son prototipos de aplicaciones que requieren elevada potencia de cómputo y memoria. Se destacan por la relevancia científica que tienen los resultados que brindan a investigaciones científicas en el campo de la biomedicina, genética y farmacología. Las aplicaciones de alineamiento múltiple tienen la limitante de que no son capaces de procesar miles de secuencias, por lo que se hace necesario crear un modelo para resolver la problemática. Analizando el volumen de datos que se manipulan en el área de las ciencias biológica y la complejidad de los algoritmos de alineamiento de secuencias, la única vía de solución del problema es a través de la utilización de entornos de cómputo paralelos y la computación de altas prestaciones. La investigación realizada por nosotros tiene como objetivo la creación de un modelo paralelo que le permita a los algoritmos de alineamiento múltiple aumentar el número de secuencias a procesar, tratando de mantener la calidad en los resultados para garantizar la precisión científica. El modelo que proponemos emplea como base la clusterización de las secuencias de entrada utilizando criterios biológicos que permiten mantener la calidad de los resultados. Además, el modelo se enfoca en la disminución del tiempo de cómputo y consumo de memoria. Para presentar y validar el modelo utilizamos T-Coffee, como plataforma de desarrollo e investigación. El modelo propuesto pudiera ser aplicado a cualquier otro algoritmo de alineamiento múltiple de secuencias.