999 resultados para Programação Paralela
Resumo:
El desarrollo de los aspectos formales del paisaje/imagen, elemento determinante de la identidad de la ciudad, es necesario para poder intervenir en el tejido urbano tridimensional, complejo diagrama que articula las plurales conexiones entre la matriz histórica y la multiplicidad de transformaciones operadas. El paisaje dinámico es el lugar de la diversidad y de las continuas transformaciones: las tipologías y los trazados se sustituyen soportando superposiciones, mutilaciones, transformaciones en dos y tres dimensiones, que en algunos casos hacen irreconocible el carácter físico y social. La investigación proyectual constituye uno de los instrumentos que puede generar conocimientos útiles para la sistematización de los procesos decisionales en las instancias de intervenciones físico espaciales urbanas. Este período se presenta como la continuación de investigaciones anteriores donde las hipótesis verificadas son ampliadas y el objeto de la estudio se hace aun más específico. Para ello se plantean tres líneas de síntesis y una de evaluación que se desarrollan en forma paralela e interactúan entre si: • Paisaje y el MKT urbano • Paisaje y la sustentabilidad • Paisaje y la geometría
Resumo:
OBJETIVO: Detectar a existência de associação entre doença periodontal ativa (DP) e ocorrência de síndromes coronarianas agudas (SCA). MÉTODOS: Foram avaliados 361 pacientes (57,3% do sexo masculino), com idades variando de 27 a 89 (média±DP=60,5±12,2 anos) internados na Unidade de Tratamento Intensivo de um Hospital de Ensino com quadro clínico e complementar de SCA. Todos foram submetidos a exame periodontal completo, no próprio ambiente da UTI, sendo que 325 (90,0%) realizaram cinecoronariografia para confirmação diagnóstica e/ou programação de conduta terapêutica. O exame periodontal consistiu na avaliação de todos os dentes presentes na cavidade oral e dos seguintes parâmetros: profundidade clínica de sondagem, nível de inserção clinica, índice de placa e índice gengival. RESULTADOS: Dos 325 pacientes, 91 (28,0%) apresentavam artérias coronarianas isentas de obstrução ou com obstruções discretas (<= 50% de perda de diâmetro), havendo obstruções importantes nos 72,0% restantes. O teste exato de Fisher mostrou valor de P de 0,0245 e ODDS Ratio de 2,571 (IC 95% 1,192 a 5,547), ou seja, documentou-se cerca de 2,5 vezes mais possibilidade de presença de DP ativa no grupo com SCA e coronariopatia obstrutiva significante. CONCLUSÃO: Constatou-se associação significante entre presença de doença periodontal ativa e doença coronariana obstrutiva de grau importante em pacientes com síndrome coronariana aguda, reforçando a importância de prevenção e tratamento adequado da doença periodontal, que deve ser considerada como fator de risco potencial na etiologia e na instabilização da placa aterosclerótica.
Resumo:
El presente proyecto es continuación de una línea de investigación iniciada en colaboración con el Instituto de Investigaciones de Péptidos de la Universidad de Hannover, Alemania. En el mismo estudiaremos la actividad biológica de un péptido que aislamos y caracterizamos recientemente a partir del hemofiltrado de pacientes renales dializados. Este péptido, compuesto por una doble cadena de 70 aminoácidos unidos por puentes disulfuros en posición paralela, aparece en su forma postranscripcional con 1 a 3 metioninas oxidadas y tiene capacidad de ligar xenobióticos y productos naturales. Por su actividad proliferativa sobre las células de linfoma Nb2, utilizadas como bioanálisis, lo hemos denominado LPAP; péptido activador de la proliferación de linfocitoma. El efecto proliferativo sobre células de linfocitoma y posiblemente sobre otras especies celulares, representa una actividad biológica cuyas implicancias son imponderables. Dada su capacidad de fijar péptidos bioactivos no se puede descartar que el LPAP sea un transportador (o carrier), en cuyo caso la actividad proliferativa debe ser atribuida a otro compuesto firmemente ligado a la molécula secuenciada por nosotros. (...) Los siguientes objetivos son propuestos para los próximos 3 años: 1. Producción de anticuerpos específicos contra LPAP para determinar las células productoras del mismo en el organismo por un mapeo inmunocitoquímico. 2. Desarrollo de un método cuantitativo para valorar las concentraciones del péptido en diferentes fluidos corporales en sujetos en condiciones normales y patológicas. 3. Síntesis parcial o total de la molécula para establecer definitivamente la actividad biológica observada. 4. Caracterización de péptidos inhibitorios de la proliferación del Linfoma. 5. Determinación de prolactina en el hemofiltrado y correlación de su contenido con otras moléculas proliferativas o inhibidoras de las células Nb2.
Resumo:
Las fluoroquinolonas constituyen una familia de antimicrobianos que, desde su introducción en terapéutica, han demostrado propiedades anti-infecciosas que los hacen insustituibles en el tratamiento de numerosas patologías. El presente proyecto forma parte de un plan interdisciplinario de trabajo que comprende: 1) la síntesis y el estudio de actividad antimicrobiana de nuevos AMFQs; 2) el comportamiento farmacocinético de nuevas moléculas en animales de laboratorio; 3) el estudio de propiedades fisicoquímicas de los AMFQs; y 4) la preparación de derivados, sales y complejos de los AMFQs de interés farmacocinético. Como parte del trabajo realizado en nuestro laboratorio hemos logrado obtener, al estado sólido, complejos entre AMFQs zwiteriónicos y el catión aluminio (Al+3) que responden a la fórmula: (CI-+HAMFQ)3Al. Estos complejos AMFQ-Al pueden ser de interés en la formulación de constituyentes farmacéuticos sólidos de los mencionados antimicrobianos ya que exhiben una alta solubilidad en agua y, por ende, una alta velocidad de disolución. Este factor puede contribuir tanto a mejorar la biodisponibilidad de formas farmacéuticas orales cuanto a ampliar las posibilidades de formulación; constituyendo el estudio de este aspecto el eje de esta investigación. En coherencia con lo expuesto, nos proponemos como objetivos: 1) completar la caracterización física y química de los complejos al estado sólido; 2) consolidar el método de preparación de modo que pueda realizarse a mayor escala y en forma paralela desarrollar los estudios de preformulación, formulación de comprimidos y de cápsulas y la evaluación de la biodisponibilidad y toxicidad de los nuevos complejos en tales formulaciones; 3) evaluar las ventajas y/o desventajas de la formulación bajo la forma de complejos en relación con las ya existentes. En lo metodológico, cabe señalar que se prevé la utilización de métodos químicos para preparar complejos AMFQ-Al al estado sólido de norfloxacina, ciprofloxacina y ofloxacina. Asimismo, para establecer la estequimetría y caracterizar su estructura se emplearán métodos analíticos mediante los cuales se extraerá información preliminar que luego será complementada con métodos espectroscópicos, análisis térmico y microscopía electrónica.
Resumo:
FUNDAMENTO: A programação ideal da energia de choque do CDI deve ser pelo menos 10 J acima do limiar de desfibrilação (LDF), necessitando de técnicas alternativas quando o LDF é elevado. OBJETIVO: Avaliar o comportamento clínico dos portadores de CDI com LDF>25 J e a eficácia da terapêutica escolhida. MÉTODOS: Foram selecionados portadores de CDI, entre janeiro de 2000 e agosto de 2004 (banco de dados prospectivo), com LDF>25 J intra-operatório, e analisaram-se: características clínicas, FEVE, resgate de eventos arrítmicos pelo CDI e óbitos. RESULTADOS: dentre 476 pacientes, 16 (3,36%) apresentaram LDF>25J. Idade média de 56,5 anos, sendo 13 pacientes (81%) do sexo masculino. Quanto à cardiopatia de base 09 eram chagásicos, 04 isquêmicos e 03 com etiologia idiopática. A FEVE média dos pacientes foi 37% e 94% utilizavam amiodarona. O seguimento médio foi de 25,3 meses. Em 02 pacientes com LDF > Choque Máximo (CM), foi necessário implante de eletrodo de choque adicional (array), sendo mantido programação com CM em zona de FV (>182bpm) nos demais. Durante o seguimento 03 pacientes apresentaram 67 terapias de choque apropriadas (TCA) com sucesso. Ocorreram 07 óbitos sendo 5 por causas não cardíacas e 2 por insuficiência cardíaca avançada. Os pacientes que foram a óbito apresentaram níveis de LDF maiores (p=0,0446), entretanto sem relação com a causa dos mesmos tendo em vista que não ocorreram TCA sem sucesso. CONCLUSÃO: Nessa coorte de pacientes com CDI, a ocorrência de LDF elevado foi baixa, implicando terapêuticas alternativas. Houve associação com disfunção ventricular grave, entretanto sem correlação com as causas de óbito.
Resumo:
A DAC continua sendo uma das principais causas globais de morbimortalidade. Programas amplos de desenvolvimento de drogas para novas estratégias de tratamento medicamentoso freqüentemente utilizam estudos com desfechos de mortalidade/morbidade tradicionais e outros com desfechos substitutos. Essa abordagem paralela permite uma avaliação da eficácia vários anos antes dos dados de estudos com desfechos clínicos estarem disponíveis. Vários marcadores imagenológicos de aterosclerose foram introduzidos nessas estratégias de desenvolvimento de drogas, incluindo angiografia, ultrassonografia de carótida, USIV, RM e TC. Esta revisão discutirá a situação atual dos métodos por imagem da aterosclerose como um desfecho em estudos de progressão/regressão, com ênfase em dados baseados em evidências. Além de uma discussão sobre os resultados das modalidades de métodos por imagem individuais, serão apresentados os dados que têm surgido comparando as diferentes modalidades e abordagens.
Resumo:
La utilización de los plásticos ha crecido dramáticamente durante los últimos 30 años y en forma paralela también se ha incrementado el volumen de desperdicios provenientes de los mismos. La distribución individual de los mismos en los residuos domiciliarios varía de acuerdo al origen socioeconómico de los grupos sociales, oscilando entre 39-47% de polietileno PE, 27-41% de polietilentereftalato PET, 5-12% de poliestireno PS, 10-15% de polipropileno PP, entre otros; ocupando entre 9-12% de los desperdicios en rellenos sanitarios (expresado en porcentajes en peso). Para el aprovechamiento de los residuos plásticos existen diferentes opciones, de las cuales el reciclado químico aparece como la alternativa más prometedora tanto ambiental como económica. Dentro del reciclado químico de los desechos plásticos, se encuentra el craqueo catalítico, que es un proceso a partir del cual se pueden obtener hidrocarburos líquidos y gaseosos de gran valor agregado, a partir de la adición de catalizadores, lo cual mejora la tecnología puramente térmica, ya que el espectro en la distribución de productos es mucho más reducido, permitiendo alcanzar mayor selectividad hacia ciertos productos en función de las características del catalizador utilizado, reduciendo los tiempos de reacción y las temperaturas del proceso a 350-550°C. En la presente investigación se propone la síntesis de materiales catalíticos a medida con base en materiales microporosos (Zeolitas), para la transformación de residuos plásticos en hidrocarburos de interés para la industria petroquímica o combustibles. Los materiales catalíticos (del tipo ZSM-11, BETA) se prepararán por técnicas hidrotérmicas, a los cuales se les incorporarán funciones activas (H, Zn, Co, Cr, Ni, Mn) empleando tratamientos químicos y térmicos. Se caracterizarán mediante el empleo de diversas técnicas fisicoquímicas, tales como Difracción de rayos X, Absorción Atómica, Análisis Térmicos, Espectroscopía Infrarrojo con transformada de Fourier, BET, Microscopía de barrido electrónico con microsonda y Mediciones de propiedades magnéticas ( a temperatura ambiente con variación de campo y a campo constante con variación de temperatura). Finalmente estos materiales se emplearán en la transformación de residuos plásticos (PEBD, PEAD y mezclas de los mismos) a hidrocarburos aromáticos y cortes de combustibles. Se estudiará de las influencia de condiciones operativas (reactor de lecho fijo a presión atmosférica, temperaturas de reacción, tiempos de reacción, relación polímero/catalizador, etc.), a los fines de optimizar el sistema catalítico. Aquellos catalizadores que presenten mejor comportamiento para el proceso, serán evaluados a bajos tiempos de contacto en un reactor discontinuo de lecho fluidizado, denominado Simulador de Riser.
Resumo:
La utilización de los plásticos ha crecido dramáticamente durante los últimos 30 años y en forma paralela también se ha incrementado el volumen de desperdicios provenientes de los mismos. La distribución individual de los mismos en los residuos domiciliarios varía de acuerdo al origen socioeconómico de los grupos sociales, oscilando entre 39-47% de polietileno PE, 27-41% de polietilentereftalato PET, 5-12% de poliestireno PS, 10-15% de polipropileno PP, entre otros; ocupando entre 9-12% de los desperdicios en rellenos sanitarios (expresado en porcentajes en peso). Para el aprovechamiento de los residuos plásticos existen diferentes opciones, de las cuales el reciclado químico aparece como la alternativa más prometedora tanto ambiental como económica. Dentro del reciclado químico de los desechos plásticos, se encuentra el craqueo catalítico, que es un proceso a partir del cual se pueden obtener hidrocarburos líquidos y gaseosos de gran valor agregado, a partir de la adición de catalizadores, lo cual mejora la tecnología puramente térmica, ya que el espectro en la distribución de productos es mucho más reducido, permitiendo alcanzar mayor selectividad hacia ciertos productos en función de las características del catalizador utilizado, reduciendo los tiempos de reacción y las temperaturas del proceso a 350-550°C. En la presente investigación se propone la síntesis de materiales catalíticos a medida con base en materiales microporosos (Zeolitas), para la transformación de residuos plásticos en hidrocarburos de interés para la industria petroquímica o combustibles. Los materiales catalíticos (del tipo ZSM-11, BETA) se prepararán por técnicas hidrotérmicas, a los cuales se les incorporarán funciones activas (H, Zn, Co, Cr, Ni, Mn) empleando tratamientos químicos y térmicos. Se caracterizarán mediante el empleo de diversas técnicas fisicoquímicas, tales como Difracción de rayos X, Absorción Atómica, Análisis Térmicos, Espectroscopía Infrarrojo con transformada de Fourier, BET, Microscopía de barrido electrónico con microsonda y Mediciones de propiedades magnéticas ( a temperatura ambiente con variación de campo y a campo constante con variación de temperatura). Finalmente estos materiales se emplearán en la transformación de residuos plásticos (PEBD, PEAD y mezclas de los mismos) a hidrocarburos aromáticos y cortes de combustibles. Se estudiará de las influencia de condiciones operativas (reactor de lecho fijo a presión atmosférica, temperaturas de reacción, tiempos de reacción, relación polímero/catalizador, etc.), a los fines de optimizar el sistema catalítico. Aquellos catalizadores que presenten mejor comportamiento para el proceso, serán evaluados a bajos tiempos de contacto en un reactor discontinuo de lecho fluidizado, denominado Simulador de Riser.
Resumo:
El avance en la potencia de cómputo en nuestros días viene dado por la paralelización del procesamiento, dadas las características que disponen las nuevas arquitecturas de hardware. Utilizar convenientemente este hardware impacta en la aceleración de los algoritmos en ejecución (programas). Sin embargo, convertir de forma adecuada el algoritmo en su forma paralela es complejo, y a su vez, esta forma, es específica para cada tipo de hardware paralelo. En la actualidad los procesadores de uso general más comunes son los multicore, procesadores paralelos, también denominados Symmetric Multi-Processors (SMP). Hoy en día es difícil hallar un procesador para computadoras de escritorio que no tengan algún tipo de paralelismo del caracterizado por los SMP, siendo la tendencia de desarrollo, que cada día nos encontremos con procesadores con mayor numero de cores disponibles. Por otro lado, los dispositivos de procesamiento de video (Graphics Processor Units - GPU), a su vez, han ido desarrollando su potencia de cómputo por medio de disponer de múltiples unidades de procesamiento dentro de su composición electrónica, a tal punto que en la actualidad no es difícil encontrar placas de GPU con capacidad de 200 a 400 hilos de procesamiento paralelo. Estos procesadores son muy veloces y específicos para la tarea que fueron desarrollados, principalmente el procesamiento de video. Sin embargo, como este tipo de procesadores tiene muchos puntos en común con el procesamiento científico, estos dispositivos han ido reorientándose con el nombre de General Processing Graphics Processor Unit (GPGPU). A diferencia de los procesadores SMP señalados anteriormente, las GPGPU no son de propósito general y tienen sus complicaciones para uso general debido al límite en la cantidad de memoria que cada placa puede disponer y al tipo de procesamiento paralelo que debe realizar para poder ser productiva su utilización. Los dispositivos de lógica programable, FPGA, son dispositivos capaces de realizar grandes cantidades de operaciones en paralelo, por lo que pueden ser usados para la implementación de algoritmos específicos, aprovechando el paralelismo que estas ofrecen. Su inconveniente viene derivado de la complejidad para la programación y el testing del algoritmo instanciado en el dispositivo. Ante esta diversidad de procesadores paralelos, el objetivo de nuestro trabajo está enfocado en analizar las características especificas que cada uno de estos tienen, y su impacto en la estructura de los algoritmos para que su utilización pueda obtener rendimientos de procesamiento acordes al número de recursos utilizados y combinarlos de forma tal que su complementación sea benéfica. Específicamente, partiendo desde las características del hardware, determinar las propiedades que el algoritmo paralelo debe tener para poder ser acelerado. Las características de los algoritmos paralelos determinará a su vez cuál de estos nuevos tipos de hardware son los mas adecuados para su instanciación. En particular serán tenidos en cuenta el nivel de dependencia de datos, la necesidad de realizar sincronizaciones durante el procesamiento paralelo, el tamaño de datos a procesar y la complejidad de la programación paralela en cada tipo de hardware. Today´s advances in high-performance computing are driven by parallel processing capabilities of available hardware architectures. These architectures enable the acceleration of algorithms when thes ealgorithms are properly parallelized and exploit the specific processing power of the underneath architecture. Most current processors are targeted for general pruposes and integrate several processor cores on a single chip, resulting in what is known as a Symmetric Multiprocessing (SMP) unit. Nowadays even desktop computers make use of multicore processors. Meanwhile, the industry trend is to increase the number of integrated rocessor cores as technology matures. On the other hand, Graphics Processor Units (GPU), originally designed to handle only video processing, have emerged as interesting alternatives to implement algorithm acceleration. Current available GPUs are able to implement from 200 to 400 threads for parallel processing. Scientific computing can be implemented in these hardware thanks to the programability of new GPUs that have been denoted as General Processing Graphics Processor Units (GPGPU).However, GPGPU offer little memory with respect to that available for general-prupose processors; thus, the implementation of algorithms need to be addressed carefully. Finally, Field Programmable Gate Arrays (FPGA) are programmable devices which can implement hardware logic with low latency, high parallelism and deep pipelines. Thes devices can be used to implement specific algorithms that need to run at very high speeds. However, their programmability is harder that software approaches and debugging is typically time-consuming. In this context where several alternatives for speeding up algorithms are available, our work aims at determining the main features of thes architectures and developing the required know-how to accelerate algorithm execution on them. We look at identifying those algorithms that may fit better on a given architecture as well as compleme
Resumo:
A estimulação ventricular direita convencional pode estar associada a efeitos deletérios sobre a função cardíaca. A necessidade de uma estimulação cardíaca artificial mais fisiológica é, indiscutivelmente, um dos pontos mais importantes na área da eletroterapia cardíaca. Os algoritmos de programação para a manutenção da condução atrioventricular própria, a estimulação de sítios endocárdicos alternativos e a terapia de ressincronização cardíaca são utilizados com o intuito de alcançar este objetivo. A estimulação do feixe de His e a estimulação septal têm sido estudadas como sítios endocárdicos alternativos para o posicionamento do eletrodo no ventrículo direito. A estimulação septal representa uma alternativa simples, prática e sem custos adicionais e com potenciais benefícios na redução dos efeitos deletérios da estimulação do ventrículo direito. Entretanto, esse sítio alternativo envolve um grupo heterogêneo de pacientes e apresenta resultados conflitantes quanto ao seu benefício clínico a longo prazo. Este artigo faz uma revisão das evidências científicas sobre os sítios alternativos de estimulação ventricular direita, com ênfase na segurança do procedimento, na medida dos parâmetros eletrofisiológicos, na avaliação da função ventricular esquerda e no acompanhamento clínico dos pacientes.
Resumo:
Este trabalho foi realizado com o objetivo de estudar a ocorrência de montmorilonita em solos desenvolvidos do arenito de Botucatu no município de Piracicaba. Tais solos são os seguintes: Regossol (série Ribeirão Claro), Podzólico Vermelho Amarelo-variação Laras (série Ibitiruna) e Regossol "intergrade". para Podzólico Vermelho Amarelo. Foram selecionados cinco perfis, sendo dois pertencentes ao Regossol (perfis P1, e Ρ2), dois ao Podzólico (perfis P3 e P4) e um ao Regossol "intergrade" (perfil Ρ5). As amostras dos cinco perfis, em número de 33, foram tratadas convenientemente para se processar a eliminação de sais solúveis e agentes cimentantes (matéria orgânica, óxidos de ferro livres, etc), e assim facilitar o estudo da fração argila. Nesta fração foram feitas as determinações químicas (% de K2O, silica, alumina e C.T.C.) e mineralógicas (raios X e análise térmica diferencial). Também determinações granulométricas e químicas foram realizadas em todas as amostras. Os perfis Ρ1 e P2, que não apresentaram rocha consolidada, tiveram a caolinita como mineral dominante (acima de 50%). Os perfis Ρ3, Ρ4 e Ρ5, que apresentaram como material de origem a rocha arenítica consolidada, tiveram a montmorilonita como mineral dominante, apresentando todavia, diferenças quanto ao teor desse mineral. Assim, o Podzólico Vermelho Amarelo-variação Laras, que possui o arenito de Botucatu de estratificação plano-paralela como material originário, teve um teor médio de montmorilonita de 35%, enquanto que o Regossol "intergrade" para Podzólico Vermelho Amarelo, com o mesmo arenito, mas de estratificação cruzada como material originário apresentou um teor médio de montmorilonita de 57%. A presença da montmorilonita nestes dois solos se deve a uma herança do material originário e não à formação local, por intemperização. Neste caso, o material originário deve ter tido, em outras épocas, condições favoráveis para a formação deste mineral, ou seja, clima semi-árido, riqueza de Ca, Mg, Na, baixa relação Si/Al e baixo teor de H. Pelos resultados obtidos, os perfis Ρ1 e P2), parecem não pertencer ao arenito de Botucatu. Infelizmente, devido à falta de dados mineralógicos da rocha do arenito de Botucatu de outras regiões do Estado, não foi possível verificar se a ocorrência da montmorilonita é ou não comum neste arenito. Outras pesquisas devem ser executadas visando este objetivo.
Resumo:
Los consorcios han sido una de las novedades más influyentes en la realidad bibliotecaria mundial de los últimos cinco años. Su expansión territorial y en actividades los ha convertido en un fenómeno que ha cambiado profundamente las formas tradicionales de definir los servicios bibliotecarios. El examen atento de las actividades que ha desarrollado el Consorcio de Bibliotecas Universitarias de Cataluña (CBUC) en el ámbito de las bibliotecas digitales es una muestra de las posibilidades de cooperación existentes en estos inicios del Siglo XXI. El CBUC inició sus actividades de contratación de contenidos digitales en el 1998. Los productos y servicios licenciados se agruparon bajo el nombre de Biblioteca Digital de Catalunya (BDC). La BDC contiene actualmente unas 6.800 revistas-e, 58 BBDD y 4.100 libros-e. De forma bastante paralela en el tiempo nacieron un servidor de sumarios electrónicos de revistas y un servidor de tesis doctorales a texto completo. La evolución de las necesidades de las bibliotecas ha comportado que hoy en el CBUC se tenga la visión de la BDC como un servicio formado de dos grandes partes: a) los productos exteriores sujetos a contratación y accesibles remotamente a través de servicios comerciales, y, b) servidores de aquellos objetos digitales generados en el ámbito del CBUC y que solo pueden ser puestos en la red por nosotros mismos. Para gestionar esta segunda parte de la BDC debemos constituir almacenes o repositorios digitales. Entre las diferentes posibilidades, el CBUC ha optado por crear repositorios institucionales colectivos de diferente tipo según los materiales que contienen. Hasta el momento se han creado tres repositorios: uno para tesis, uno para revistas y uno para literatura gris de investigación. Está previsto crear un cuarto repositorio para imágenes. La ponencia finaliza con los aprendizajes del CBUC en materia de repositorios. El principal es que la mayor dificultad para crearlos no son los elementos tecnológicos sino establecer mecanismos de relación con el profesorado y la universidad para que los diferentes documentos creados de forma electrónica pasen a formar parte de los repositorios institucionales correspondientes.
Resumo:
A biomassa média nos criadouros foi calculada com base na quase-constância das razões de crescimento das formas jovens dos insetos e no número médio de larvas de cada estádio. O exame do ciclo anual da biomassa média de cinco populações de Anopheles do subgênero Kerteszia confirmou a observação anterior de que êsses mosquitos, na natureza, têm desenvolvimento muito lento. Nesse estudo, também, ficou evidente que a densidade larvária, como é clàssicamente calculada, dividindo o total de larvas coletadas pelo número de criadouros positivos, é um índice impróprio para representar as potencialidades dos criadouros dêsses anofelinos. O número médio de larvas de 4º estádio, por criadouro positivo, revelou-se um índice muito melhor. A curva do seu ciclo anual é aproximadamente paralela à da biomassa e, por isso, o autor sugere que, em trabalhos posteriores, se conte apenas as formas jovens da última idade.
Resumo:
Durante la década de los ’60 España vivió su particular “edad de oro” y uno de los periodos de transformaciones más radicales de toda su historia en su economía y su sociedad. La década que empezó con el Plan de Estabilización acabó con una país ya plenamente industrial, atravesado por el movimiento interior y exterior más grande de personas de su historia, con un campo que se fue vaciando rápidamente y, consecuentemente, se fueron imponiendo transformaciones de su agricultura que la alejaron definitivamente del modelo de la agricultura tradicional; fue esta la década de mayor crecimiento económico del siglo XX (y por extensión de la historia). Lo único que se mantenía intacto era el sistema político, que hacía del tardo-fascismo y del nacional-catolicismo español la gran anomalía del concierto europeo, junto a su vecino ibérico. De manera que en España los años gloriosos del capitalismo keynesiano, amén de empezar con notable retraso respecto al resto del mundo capitalista avanzado, se caracterizaron por una particular cojera en la aplicación del modelo occidental de la época; una cojera consolidada de la mano de los intereses militares y geopolíticos estadounidenses y acentuada por las transformaciones a que obligaba una desastrosa crisis de balanza de pagos. Es decir, se asistió a una inédita aceleración del crecimiento pero sin paralela construcción del Estado de Bienestar. ¿Cómo influyó esta circunstancia sobre los niveles de bienestar de los españoles y las españolas? ¿De qué magnitud eran durante este período las desigualdades y cómo evolucionaron? Responder a estas preguntas desde la perspectiva de los ingresos y de la alimentación es el objetivo de esta investigación.
Resumo:
Gaps es un generador de aplicaciones sintéticas de estructura compuesta Master/Worker de pipelines. Para crear una aplicación sintética, el investigador utilizará Gaspar, que recibe un fichero de texto con los parámetros de la aplicación a generar: cantidad de workers, etapas, tamaño de mensaje a enviar, etc., y genera un fichero con las propiedades de cada etapa. A partir de estos datos, Gaps, que esta hecho en C con MPI, genera y ejecuta la aplicación paralela. Estas aplicaciones se utilizan para comprobar en un entorno real los estudios analíticos que constituyen el modelo de rendimiento y sintonización dinámica.