998 resultados para Fontes de dados
Resumo:
A modelagem, a correlação e a análise de dados geofísicos e geoquímicos, aplicados para avaliar/definir a distribuição e o controle de teores de minério num espaço 3D, não são procedimentos adotados para o caso de depósitos de metais básicos e Au. Essa tese de doutorado tem o objetivo de avaliar e definir uma metodologia de modelagem, correlação e análise de dados geofísicos e geoquímicos para controle de teores de metais básicos e Au. Tal metodologia foi aplicada no Prospecto Volta Grande (Lavras do Sul, RS). A região de Lavras do Sul (RS) possui uma série de ocorrências minerais do tipo veios de quartzo com metais básicos e Au, as quais estão relacionadas com o processo de alojamento do Complexo Intrusivo Lavras do Sul. Esse complexo é uma intrusão predominantemente granítica, zonada e multifásica, cujas rochas têm filiação com as séries shoshonítica a alcalina. As ocorrências de veios estão relacionadas a zonas de alteração hidrotermal controladas por fraturas predominantemente WNW-ESE. O Prospecto Volta Grande é constituído por uma série de tais veios alojados tanto no granito intrusivo, quanto nas rochas vulcânicas e vulcanoclásticas da Formação Hilário. A metodologia desenvolvida consiste: 1) da construção de uma base de dados comum para o georreferenciamento 3D dos dados; 2) processamento estatístico e geoestatístico das variáveis de interesse (dados geofísicos e geoquímicos); 3) modelagem 3D das variáveis de interesse para definir a distribuição espacial; e 4) análise da correlação entre as variáveis para definir o controle 3D dos teores de minério por meio de métodos indiretos. Essa metodologia, na medida em que haja a possibilidade de várias fontes de informação e a possibilidade de aplicar algorítmos de lógica matemática, poderá incorporar a integração de dados num espaço 3D A aplicação de tal metodologia no Prospecto Volta Grande (Lavras do Sul, RS) permitiu verificar que os dados geofísicos e geoquímicos se adaptam mais adequadamente a uma distribuição do tipo lognormal. Além disso, a comparação múltipla das médias de resistividade aparente permitiu distinguir um controle litológico sobre os dados geofísicos. Desse modo, foram definidos os procedimentos de análise variográfica e, então, os parâmetros para a modelagem 3D dos corpos condutores em cada área de pesquisa. A adequação do suporte amostral dos dados geofísicos e geoquímicos permitiu a correlação entre essas variáveis. A análise dos diagramas de correlação revelou superposição de pulsos de mineralização com distintas cargas metálicas. A utilização de métodos indiretos para controle de teores em depósitos sulfetados do tipo veios de quartzo com Au + Cu é, portanto, uma possibilidade concreta, garantida a adequada resolução espacial dos levantamentos geofísicos.
Resumo:
A elaboração de diagnósticos e a tomada de decisões sobre o meio físico, com a finalidade de estabelecer diretrizes para a ocupação racional do solo, são cada vez mais prementes, especialmente, no que diz respeito ao direcionamento da expansão urbana para áreas mais favoráveis. Da mesma forma, a facilidade de acesso aos parâmetros geotécnicos de uma região constituí um inestimável recurso nas etapas preliminares dos projetos de Engenharia, no planejamento de atividades extrativas e nos programas de preservação ambiental. A cartografia geotécnica, nesse sentido, tem sido um dos instrumentos mais eficientes para a avaliação do meio físico nas últimas décadas. Entretanto, o desenvolvimento de um mapa geotécnico requer a análise de um grande número de informações que precisam ser tratadas e combinadas com rapidez. Esta tese apresenta uma metodologia para a integração de dados, por meio da ferramenta básica geoprocessamento, visando agilizar, na fase de escritório, a elaboração de mapas geotécnicos e a análise de determinados aspectos do meio físico sob o ponto de vista da Geotecnia, bem como suas interações com a mancha urbana existente. A área teste escolhida é o município de Porto Alegre (RS) situado na porção leste do estado do Rio Grande do Sul, à margem esquerda do Lago Guaiba, cuja paisagem é marcada pela diversidade de cenários naturais formados por terrenos de coxilhas, morros, cristas, lagos e planícies. A metodologia envolve a captura, o processamento e a integração de informações provenientes de fontes diversas como mapas temáticos, levantamento aerofotogramétrico, cartas topográficas, fotografias aéreas, imagens de satélite, boletins de sondagens SPT (Standart Penetration Test), dissertações e teses acadêmicas. Para isso, é constituída por nove etapas distintas, que utilizam: a) sistema de digitalização para a conversão de informações analógicas para o meio digital; b) modelagem digital do terreno (MDT) para o modelamento e a identificação do relevo, a determinação de declividades, o mapeamento de áreas com isodeclividades e o cálculo do fator topográfico, esse último objetivando a determinação da suscetibilidade à erosão laminar; c) técnicas de processamento e classificação de imagens orbitais para os mapeamentos das áreas inundáveis e da mancha urbana; d) Sistemas de Informações Geográficas (SIGs) para o processamento e a integração de informações georreferenciadas no computador; e) banco de dados digital para o armazenamento de dados descritivos sobre o meio físico e parâmetros geotécnicos obtidos em laboratório, sondagens e outras formas de investigação in situ. A estimativa das unidades geotécnicas é procedida com base na proposta metodológica para mapeamento geotécnico desenvolvida por Davison Dias (1995), na Universidade Federal do Rio Grande do Sul (UFRGS). Além da elaboração do mapa geotécnico, a metodologia propõe a análise e o cruzamento de vários fatores do meio físico com a mancha urbana existente, ou com uma subárea pertencente à região de estudo, a geração de mapas de aptidão do solo para diferentes usos e a identificação das áreas consideradas de eventos perigosos e de risco geológico. Os principais softwares empregados são o AutoCAD@, o SURFER@, ACESS@ e o IDRISI 2.0@, desenvolvido pela Clark University, USA. Os resultados obtidos a partir da implementação da metodologia demonstraram a importância e a contribuição que a ferramenta básica geoprocessamento pode trazer aos estudos geotécnicos. Os diferentes sistemas de geoprocessamento utilizados para a manipulação e tratamento das informações espaciais mostraram-se adequados e eficientes quando aplicados na coleta, processamento e integração de dados geotécnicos. Para a área teste foram identificadas trinta e sete unidades com perfis de solos com comportamento geotécnico praticamente similar frente ao uso e à ocupação do solo, cujas informações descritivas sobre o meio físico puderam ser facilmente acessadas e visualizadas, no computador, por meio da integração banco de dados geotécnicos com Sistema de Informações Geográficas. Por outro lado, o emprego de técnicas de processamento e classificação de imagens digitais revelou-se um recurso importante para a obtenção de informações sobre o meio físico, enquanto o uso de modelagem digital do terreno (MDT) agilizou o mapeamento das declividades e o cálculo da suscetibilidade potencial à erosão laminar, além de permitir a geração do relevo em perspectiva da região estudada.
Resumo:
As empresas estão cada vez mais conscientes de que a competição se dá entre cadeias de suprimentos e que a integração e o gerenciamento bem sucedidos dos processos de negócio entre os membros da cadeia de suprimentos determinará o sucesso final das empresas (SIMON, 2005). Segundo dados da UNICA (2009) o Brasil lidera o mercado mundial de açúcar com 38% do mesmo na safra 2008/09, exportando 20,8 milhões de toneladas de açúcar. Segundo dados levantados junto às empresas pesquisadas, somente com gastos logísticos de transporte entre usina e porto e com gastos na operação portuária para carregamento dos navios, estima-se valores em torno de US$ 50,00 por tonelada movimentada, equivalente a mais de US$ 1 bilhão na mesma safra com estas operações logísticas. Como toda commodity agrícola, o açúcar possui baixo valor agregado, logo a gestão da cadeia é focada em custo, buscando a eficiência das operações. Este trabalho analisou sob ótica das incertezas nas cadeias de suprimentos proposta por Van der Vorst e Beulens (2002), cadeias de suprimentos para exportação de açúcar lideradas por quatro relevantes empresas deste setor, buscando entender se estas cadeias de fato, comportam-se como eminentemente eficientes. Como resultado da pesquisa, o trabalho obteve uma caracterização destas cadeias que demonstrou alto nível de incertezas na demanda, no suprimento e junto a importantes fornecedores. Apresentou-se a partir daí um conflito e um desafio aos gestores: prover responsividade e flexibilidade exigida pelas incertezas existentes na cadeia, onerando-a e ao mesmo tempo, reduzir custos e buscar a eficiência exigida por uma cadeia de suprimentos de uma commodity agrícola. A conclusão deste trabalho é que existem vários pontos a serem trabalhados na redução e minimização dos efeitos das incertezas existentes, de forma a conseguir a responsividade exigida a um custo suportado pelas cadeias. Outra sugestão do trabalho é para que o conceito de cadeia de suprimentos seja reforçado entre seus membros, e estes enfatizem a busca de resultado global e coletivo, tendo na cooperação uma forma para melhorar o resultado das empresas envolvidas.
Resumo:
Na literatura econômica, encontramos o argumento de que as políticas salariais que resultem em uma remuneração inferior no setor público podem funcionar como um estímulo ao corrupt behavior por parte do funcionalismo público. No Brasil, a existência de fracos controles administrativos e a baixa punição corroboram para validade desta relação sem, porém existirem indícios de que o salário pago no setor público seja inferior ao praticado no setor privado. Diante disso, este trabalho tem como objetivo testar a dinâmica dos salários pagos pelos governos estaduais brasileiros de forma a verificar se o nível de remuneração praticado, comparativamente ao setor privado, pode ser apontado como um dos fatores que causem a corrupção no país. Para o desenvolvimento da pesquisa empírica, trabalhamos com os micro dados da PNAD para os vinte e seis estados brasileiros e o Distrito Federal entre os anos de 1995 a 2004. Os resultados foram calculados utilizando a técnica de Oaxaca (1973) onde foi estimada a existência de um diferencial de salários público privado. A estimativa dos diferenciais foi realizada para a media dos salários e também para diferentes coortes de renda através do emprego de Quantile Regression sendo que, de forma geral foi detectada a presença prêmios nos salários do funcionalismo público estadual em praticamente todas as regiões brasileiras. Com base nos resultados encontrados, este trabalho conclui que, dada sua inexistência não há indícios de que os baixos salários no setor público possam ser apontados como causa da corrupção nos governos estaduais brasileiros.
Resumo:
O trabalho consiste no estudo da viabilidade técnico-econômica da utilização da energia eólica em três localidades no estado do Rio Grande do Sul, Brasil. A pesquisa inicia com uma revisão bibliográfica acerca do assunto, situando o leitor no cenário eólico mundial, brasileiro e riograndense. Seguindo-se a esta, são apresentados os levantamentos desenvolvidos nos municípios de Nova Hartz, São Lourenço do Sul e Tapes. A primeira localidade foi escolhida devido ao projeto do Centro Experimental de Tecnologias Habitacionais Sustentáveis (CETHS) ter sido lá desenvolvido. Neste caso a pesquisa, por constituir-se em um provimento energético consoante à filosofia do projeto, integrou-se nas metas do mesmo. Nesta localidade, foi efetivamente desenvolvido o método de medição da velocidade do vento, aplicando-se a metodologia mundialmente reconhecida do MEASNET, durante um prazo de 11 meses. Nas outras duas localidades, o levantamento dos dados de campo não foi realizado por esta pesquisadora, pois o Instituto de Geociências, dessa Universidade, especificamente, o Centro de Estudos de Geologia Costeira e Oceânica, dispunha à época, de dados de medições da Lagoa dos Patos, ainda não tratados, e tinha interesse na promoção de um estudo técnico acerca dos mesmos. A partir do tratamento estatístico dos dados colhidos e disponibilizados, foi desenvolvido o estudo de viabilidade técnica dos locais com o emprego do Programa Alwin A dissertação conclui com um estudo econômico preliminar, analisando-se o único equipamento nacional em fabricação no momento, o aerogerador E-40/6,44, produzido pela tecnologia da alemã Wobben através de sua subsidiária brasileira, a Empresa Enercon, frente a diferentes alturas, diferentes taxas de financiamento e sob as condições do Programa de Incentivo às Fontes Alternativas (PROINFA) do Ministério das Minas e Energia. Isto resultou em diferentes alternativas de geração de energia elétrica com o uso da energia eólica disponível nas condições locais.Nestes cenários foram destacados os fatores condicionantes que determinaram a viabilidade de um empreendimento nestas localidades, sob os critérios do citado programa.
Resumo:
Este trabalho tem por objetivo analisar algumas das características principais das estruturas de securitização no mercado brasileiro. Utilizando como principal referência o artigo de Gorton e Souleles (2005) e, através da análise das características das empresas que utilizam securitização no Brasil, testamos se empresas com maior risco de crédito tendem a securitizar mais. Avaliando as características que fazem com que tais estruturas sejam viáveis, testamos também se há evidências de um contrato implícito entre as empresas cedentes e os investidores. Na base de dados utilizada para os testes foram consideradas 59 emissões de FIDCs registradas de janeiro de 2005 a julho de 2010 e uma base com dados contábeis de 86 bancos em 8 semestres. Devido à estrutura dos dados, foram utilizados métodos para regressão com dados em painel utilizando estimadores para efeitos fixos e aleatórios. Nos testes empíricos foram encontradas evidências de que o rating das empresas cedentes influencia o spread cobrado nos FIDCs, o que pode ser entendido como uma forma de evidenciação da existência de um contrato implícito. Também evidenciamos, embora de forma menos contundente, que empresas com piores ratings securitizam mais.Tais resultados mostram-se alinhados com os encontrados no artigo de Gorton e Souleles (2005) .
Resumo:
Nos últimos anos, o mundo vem assistindo a um maior número de mobilizações sociais, que ocorrem em todo o espectro de regimes de governo e níveis de desenvolvimento econômico: de países tradicionalmente democráticos e desenvolvidos, a países em desenvolvimento sob regimes autoritários. Tais mobilizações vêm ocorrendo simultaneamente a uma expansão acelerada das Tecnologias da Informação e Comunicação (TIC), mais notadamente o avanço da Internet e dos telefones celulares (ITU, 2014; CETIC, 2013), tornando mais rápido e fácil o acesso e difusão de informações sem o intermédio dos meios de comunicação de massa tradicionais; há os que defendem que o contexto de cada nação é o grande responsável por tais manifestações, enquanto outros citam a importância tanto das TIC quanto dos fatores contextuais como influenciadores. O objetivo desta pesquisa é identificar as variáveis explicativas da ocorrência de protestos, considerando aspectos tecnológicos, sociais e políticos, por meio da construção de modelos utilizando dados em painel. Para tal são utilizados dados do Banco Mundial, Fórum Econômico Mundial e ITU, desenvolvendo uma amostra de 124 países. O resultado desta análise revela que o percentual de usuários de Internet influencia positivamente a ocorrência de protestos e que países desenvolvidos possuem maior a chance de apresentarem manifestações.
Resumo:
Nos últimos anos, o mundo vem assistindo a um maior número de mobilizações sociais, que ocorrem em todo o espectro de regimes de governo e níveis de desenvolvimento econômico: de países tradicionalmente democráticos e desenvolvidos, a países em desenvolvimento sob regimes autoritários. Tais mobilizações vêm ocorrendo simultaneamente a uma expansão acelerada das Tecnologias da Informação e Comunicação (TIC), mais notadamente o avanço da Internet e dos telefones celulares (ITU, 2014; CETIC, 2013), tornando mais rápido e fácil o acesso e difusão de informações sem o intermédio dos meios de comunicação de massa tradicionais; há os que defendem que o contexto de cada nação é o grande responsável por tais manifestações, enquanto outros citam a importância tanto das TIC quanto dos fatores contextuais como influenciadores. O objetivo desta pesquisa é identificar as variáveis explicativas da ocorrência de protestos, considerando aspectos tecnológicos, sociais e políticos, por meio da construção de modelos utilizando dados em painel. Para tal são utilizados dados do Banco Mundial, Fórum Econômico Mundial e ITU, desenvolvendo uma amostra de 124 países. O resultado desta análise revela que o percentual de usuários de Internet influencia positivamente a ocorrência de protestos e que países desenvolvidos possuem maior a chance de apresentarem manifestações.
Resumo:
O objetivo deste trabalho é investigar, empiricamente, as diferenças na trajetória de desenvolvimento econômico no pós-guerra para os países da América Latina, vis-a-vis à amostra de referência comparativa – países asiáticos. A metodologia utilizada no trabalho baseia-se em pesquisas bibliográficas e em diferentes bases de dados que visam, primordialmente, a fundamentação conceitual e teórica do modelo. Assim, baseado na função de produção do tipo Cobb-Douglas, utiliza-se a decomposição do crescimento econômico em termos da acumulação de fatores de produção e da evolução do resíduo chamado de produtividade total dos fatores (PTF) para analisar a trajetória e explicar as diferenças nas taxas de crescimento da produtividades dos trabalhadores dos países da América Latina e da Ásia no período compreendido entre os anos 1960 e 2007. É feita também uma extensão do modelo com a abordagem de decomposições de desenvolvimento para estudar o gap de produtividade dos países em relação aos Estados Unidos em 1960, 2000 e 2007. As primeiras análises dos dados corroboraram a questão do fracasso dos países da América Latina em alcançar os níveis de renda per capita da economia americana e que os países asiáticos, que possuíam níveis semelhantes ou inferiores no começo do período, vem obtendo sucesso no processo de catch up. Os resultados do modelo mostram que dentre as economias da América Latina, apenas o Chile e a República Dominicana apresentaram ganhos na produtividade a partir de 1980 até o presente, com taxa média superior a 2% a.a..Tal comportamento se assemelha com os resultados encontrados para as economias asiáticas,apesar da magnitude inferior. Outra coincidência de resultados comparativos é dada pela importância da acumulação de capital humano como principal fator responsável em instantes de aceleração de crescimento da produtividade com resultados de longo prazo.
Resumo:
A atenção à saúde da população no Brasil gera um grande volume de dados sobre os serviços de saúde prestados. O tratamento adequado destes dados com técnicas de acesso à grande massa de dados pode permitir a extração de informações importantes para um melhor conhecimento do setor saúde. Avaliar o desempenho dos sistemas de saúde através da utilização da massa de dados produzida tem sido uma tendência mundial, uma vez que vários países já mantêm programas de avaliação baseados em dados e indicadores. Neste contexto, A OCDE – Organização para Cooperação e Desenvolvimento Econômico, que é uma organização internacional que avalia as políticas econômicas de seus 34 países membros, possui uma publicação bienal, chamada Health at a Glance, que tem por objetivo fazer a comparação dos sistemas de saúde dos países membros da OCDE. Embora o Brasil não seja um membro, a OCDE procura incluí-lo no cálculo de alguns indicadores, quando os dados estão disponíveis, pois considera o Brasil como uma das maiores economias que não é um país membro. O presente estudo tem por objetivo propor e implementar, com base na metodologia da publicação Health at a Glance de 2015, o cálculo para o Brasil de 22 indicadores em saúde que compõem o domínio “utilização de serviços em saúde” da publicação da OCDE. Para isto foi feito um levantamento das principais bases de dados nacionais em saúde disponíveis que posteriormente foram capturadas, conforme necessidade, através de técnicas para acessar e tratar o grande volume de dados em saúde no Brasil. As bases de dados utilizadas são provenientes de três principais fontes remuneração: SUS, planos privados de saúde e outras fontes de remuneração como, por exemplo, planos públicos de saúde, DPVAT e particular. A realização deste trabalho permitiu verificar que os dados em saúde disponíveis publicamente no Brasil podem ser usados na avaliação do desempenho do sistema de saúde, e além de incluir o Brasil no benchmark internacional dos países da OCDE nestes 22 indicadores, promoveu a comparação destes indicadores entre o setor público de saúde do Brasil, o SUS, e o setor de planos privados de saúde, a chamada saúde suplementar. Além disso, também foi possível comparar os indicadores calculados para o SUS para cada UF, demonstrando assim as diferenças na prestação de serviços de saúde nos estados do Brasil para o setor público. A análise dos resultados demonstrou que, em geral, o Brasil comparado com os países da OCDE apresenta um desempenho abaixo da média dos demais países, o que indica necessidade de esforços para atingir um nível mais alto na prestação de serviços em saúde que estão no âmbito de avaliação dos indicadores calculados. Quando segmentado entre SUS e saúde suplementar, a análise dos resultados dos indicadores do Brasil aponta para uma aproximação do desempenho do setor de saúde suplementar em relação à média dos demais países da OCDE, e por outro lado um distanciamento do SUS em relação a esta média. Isto evidencia a diferença no nível de prestação de serviços dentro do Brasil entre o SUS e a saúde suplementar. Por fim, como proposta de melhoria na qualidade dos resultados obtidos neste estudo sugere-se o uso da base de dados do TISS/ANS para as informações provenientes do setor de saúde suplementar, uma vez que o TISS reflete toda a troca de informações entre os prestadores de serviços de saúde e as operadoras de planos privados de saúde para fins de pagamento dos serviços prestados.
Resumo:
Sulfated polysaccharides (SP) are widely distributed in animals and seaweeds tissues. These polymers have been studied in light of their important pharmacological activities, such as anticoagulant, antioxidant, antitumoral, anti-inflammatory, and antiviral properties. On other hand, SP potential to synthesize biomaterials like as nanoparticules has not yet been explored. In addition, to date, SP have only been found in six plants and all inhabit saline environments. However, the SP pharmacological plant activities have not been carrying out. Furthermore, there are no reports of SP in freshwater plants. Thus, do SP from marine plants show pharmacological activity? Do freshwater plants actually synthesize SP? Is it possible to synthesize nanoparticles using SP from seaweed? In order to understand this question, this Thesis was divided into tree chapters. In the first chapter a sulfated polysaccharide (SPSG) was successfully isolated from marine plant Halodule wrightii. The data presented here showed that the SPSG is a 11 kDa sulfated heterogalactan contains glucose and xylose. Several assays suggested that the SPSG possessed remarkable antioxidant properties in different in vitro assays and an outstanding anticoagulant activity 2.5-fold higher than that of heparin Clexane® in the aPTT test; in the next chapter using different tools such as chemical and histological analyses, energy-dispersive X-ray analysis (EDXA), gel electrophoresis and infra-red spectroscopy we confirm the presence of sulfated polysaccharides in freshwater plants for the first time. Moreover, we also demonstrate that SP extracted from E. crassipes root has potential as an anticoagulant compound; and in last chapter a fucan, a sulfated polysaccharide, extracted from the brown seaweed was chemically modified by grafting hexadecylamine to the polymer hydrophilic backbone. The resulting modified material (SNFuc) formed nanosized particles. The degree of substitution for hydrophobic chains of 1H NMR was approximately 93%. SNFfuc-TBa125 in aqueous media had a mean diameter of 123 nm and zeta potential of -38.3 ± 0.74 mV, measured bydynamic light scattering. Tumor-cell (HepG2, 786, H-S5) proliferation was inhibited by 2.0 43.7% at SNFuc concentrations of 0.05 0.5 mg/ mL and RAEC non-tumor cell line proliferation displayed inhibition of 8.0 22.0%. On the other hand, nanogel improved CHO and RAW non-tumor cell line proliferation in the same concentration range. Flow cytometric analysis revealed that this fucan nanogel inhibited 786 cell proliferation through caspase and caspaseindependent mechanisms. In addition, SNFuc blocks 786 cell passages in the S and G2-M phases of the cell cycle
Resumo:
O presente trabalho foi conduzido com o objetivo de avaliar o efeito da utilização de diferentes fontes de gonadotrofinas para maturação in vitro dos oócitos bovinos fecundados e desenvolvidos in vitro sobre as taxas de clivagem (TC) e de blastocistos (TBL). Oócitos imaturos provenientes de ovários de vacas de abatedouro foram submetidos a maturação in vitro sob diferentes condições: meio TCM 199, acrescido de 10% de soro de vaca em estro (SVE), aditivos, hepes, NaHCO3, piruvato de sódio, antibióticos (meio B-199), 20 UI/mL de PMSG e 10 UI/mL de hCG (PMSG/hCG) ou meio B-199, acrescido de 5 mig/mL de FSH e 5 mig/mL de LH (FSH/LH). Seguidos 24 h de cultura a 38,5ºC em atmosfera com 5% de CO2, os oócitos maturos foram incubados com sêmen descongelado durante 18 a 21 horas. Após esse período, os oócitos foram transferidos para placas contendo microgotas de meio Ménezo suplementado com 10% de SVE e células epiteliais do oviduto bovino em suspensão, cobertas com óleo de silicone, os quais permaneceram em cultura por mais 9 dias. Os dados foram analisados pelo teste do Qui-quadrado. A TC e a TBL, para PMSG/hCG e FSH/LH, foram 60 e 13,9% e 61,2 e 10,6%, respectivamente. Não houve diferença entre os tratamentos com relação a TC ou a TBL. Esses resultados sugerem que ambas as fontes de gonadotrofinas podem ser utilizadas para maturação in vitro dos oócitos fecundados e desenvolvidos in vitro.
Resumo:
The development of wireless sensor networks for control and monitoring functions has created a vibrant investigation scenario, covering since communication aspects to issues related with energy efficiency. When source sensors are endowed with cameras for visual monitoring, a new scope of challenges is raised, as transmission and monitoring requirements are considerably changed. Particularly, visual sensors collect data following a directional sensing model, altering the meaning of concepts as vicinity and redundancy but allowing the differentiation of source nodes by their sensing relevancies for the application. In such context, we propose the combined use of two differentiation strategies as a novel QoS parameter, exploring the sensing relevancies of source nodes and DWT image coding. This innovative approach supports a new scope of optimizations to improve the performance of visual sensor networks at the cost of a small reduction on the overall monitoring quality of the application. Besides definition of a new concept of relevance and the proposition of mechanisms to support its practical exploitation, we propose five different optimizations in the way images are transmitted in wireless visual sensor networks, aiming at energy saving, transmission with low delay and error recovery. Putting all these together, the proposed innovative differentiation strategies and the related optimizations open a relevant research trend, where the application monitoring requirements are used to guide a more efficient operation of sensor networks
Resumo:
The last years have presented an increase in the acceptance and adoption of the parallel processing, as much for scientific computation of high performance as for applications of general intention. This acceptance has been favored mainly for the development of environments with massive parallel processing (MPP - Massively Parallel Processing) and of the distributed computation. A common point between distributed systems and MPPs architectures is the notion of message exchange, that allows the communication between processes. An environment of message exchange consists basically of a communication library that, acting as an extension of the programming languages that allow to the elaboration of applications parallel, such as C, C++ and Fortran. In the development of applications parallel, a basic aspect is on to the analysis of performance of the same ones. Several can be the metric ones used in this analysis: time of execution, efficiency in the use of the processing elements, scalability of the application with respect to the increase in the number of processors or to the increase of the instance of the treat problem. The establishment of models or mechanisms that allow this analysis can be a task sufficiently complicated considering parameters and involved degrees of freedom in the implementation of the parallel application. An joined alternative has been the use of collection tools and visualization of performance data, that allow the user to identify to points of strangulation and sources of inefficiency in an application. For an efficient visualization one becomes necessary to identify and to collect given relative to the execution of the application, stage this called instrumentation. In this work it is presented, initially, a study of the main techniques used in the collection of the performance data, and after that a detailed analysis of the main available tools is made that can be used in architectures parallel of the type to cluster Beowulf with Linux on X86 platform being used libraries of communication based in applications MPI - Message Passing Interface, such as LAM and MPICH. This analysis is validated on applications parallel bars that deal with the problems of the training of neural nets of the type perceptrons using retro-propagation. The gotten conclusions show to the potentiality and easinesses of the analyzed tools.
Resumo:
This work is a detailed study of self-similar models for the expansion of extragalactic radio sources. A review is made of the definitions of AGN, the unified model is discussed and the main characteristics of double radio sources are examined. Three classification schemes are outlined and the self-similar models found in the literature are studied in detail. A self-similar model is proposed that represents a generalization of the models found in the literature. In this model, the area of the head of the jet varies with the size of the jet with a power law with an exponent γ. The atmosphere has a variable density that may or may not be spherically symmetric and it is taken into account the time variation of the cinematic luminosity of the jet according to a power law with an exponent h. It is possible to show that models Type I, II and III are particular cases of the general model and one also discusses the evolution of the sources radio luminosity. One compares the evolutionary curves of the general model with the particular cases and with the observational data in a P-D diagram. The results show that the model allows a better agreement with the observations depending on the appropriate choice of the model parameters.