995 resultados para Sistema operacional de tempo real


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho descreve o protocolo de adaptação ATM do tipo 2 (AAL2), e expõe as mudanças que foram realizadas no simulador de rede ATM com a finalidade de estudá-lo. É proposto que se conheça melhor este novo padrão, planejado para baixa taixa de transferência e multiplexação de usuários e pode contribuir nos serviços de tráfego de voz, quando ocorre a integração de diversas aplicações que é o objetivo da B-ISDN. Após algumas explanações sobre o ATM em geral, é descrita de forma detalhada a recomendação I.362 que padroniza o novo AAL. É explicado o comportamento da máquina de estados de transmissão, e como ocorre a temporização para carregar diversos pacotes de voz numa mesma célula. Como foi idealizado para a classe de serviços do tipo VBR em tempo real, comentam-se alguns mecanismos próprios do AAL2 para controle de tráfego e sua influência. Descreve-se a subcamada SSCS proposta para pacotes longos, recentemente padronizada. São apresentados alguns artigos e estudos realizados sobre o AAL2 que descreve quantitativamente o ganho esperado pelo protocolo e levanta algumas questões comparando-o ao AAL1. Por ter sido inicialmente uma necessidade da telefonia celular, realiza-se um breve comentário de estudos dirigidos para a área. Com o intuito de realizar a simulação do protocolo, foi utilizado o simulador de redes ATM, desenvolvido pelo NIST, que possui certas qualidades desejadas para este trabalho, porém, foram necessárias realizar modificações para implementar a camada AAL que não estava prevista na arquitetura original dele. Para se criar um ambiente de testes propício, e com a preocupação de não corromper o funcionamento padrão, foram criadas estruturas semelhantes às existentes e realizadas mudanças sutis, reconhecidas normalmente pelo simulador original. A partir destas simulações, pretende-se deixar uma ferramenta para fazer análises deste protocolo; utilizando modelos de tráfego de voz, a fim de obter informações do seu comportamento. No entanto, este estudo limitou-se somente a demonstrar a verificação e validação do simulador a partir dos resultados gerados. Para verificar a integridade do código fonte original foram utilizados os exemplos do próprio NIST e assim garantir que nada foi alterado. Além disso, o novo módulo foi comparado a norma através de um "debug". Na validação, devido ao fato de não existir uma rede real montada e disponível para testes, foram empregados artigos para comparar os resultados e demonstrar a boa aproximação obtida. Acredita-se que desta forma obteve-se o resultado desejado de um ambiente para estudo e compreensão do AAL2 e que, futuramente, pode ser usado para todos os protocolos da camada AAL.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente trabalho explora a aplicação de técnicas de injeção de falhas, que simulam falhas transientes de hardware, para validar o mecanismo de detecção e de recuperação de erros, medir os tempos de indisponibilidade do banco de dados após a ocorrência de uma falha que tenha provocado um FUDVK. Adicionalmente, avalia e valida a ferramenta de injeção de falhas FIDe, utilizada nos experimentos, através de um conjunto significativo de testes de injeção de falhas no ambiente do SGBD. A plataforma experimental consiste de um computador Intel Pentium 550 MHz com 128 MB RAM, do sistema operacional Linux Conectiva kernel versão 2.2.13. O sistema alvo das injeções de falhas é o SGBD centralizado InterBase versão 4.0. As aplicações para a carga de trabalho foram escritas em VFULSWV SQL e executadas dentro de uma sessão chamada LVTO. Para a injeção de falhas foram utilizadas três técnicas distintas: 1) o comando NLOO do sistema operacional; 2) UHVHW geral no equipamento; 3) a ferramenta de injeção de falhas FIDe, desenvolvida no grupo de injeção de falhas do PPGC da UFRGS. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho e são necessários para a compreensão deste estudo. Em seguida é apresentada a ferramenta de injeção de falhas Xception e são também analisados alguns experimentos que utilizam ferramentas de injeção de falhas em bancos de dados. Concluída a revisão bibliográfica é apresentada a ferramenta de injeção de falhas – o FIDe, o modelo de falhas adotado, a forma de abordagem, a plataforma de hardware e software, a metodologia e as técnicas utilizadas, a forma de condução dos experimentos realizados e os resultados obtidos com cada uma das técnicas. No total foram realizados 3625 testes de injeções de falhas. Com a primeira técnica foram realizadas 350 execuções, com a segunda técnica foram realizadas 75 execuções e com a terceira técnica 3200 execuções, em 80 testes diferentes. O modelo de falhas proposto para este trabalho refere-se a falhas de crash baseadas em corrupção de memória e registradores, parada de CPU, aborto de transações ou reset geral. Os experimentos foram divididos em três técnicas distintas, visando a maior cobertura possível de erros, e apresentam resultados bastante diferenciados. Os experimentos com o comando NLOO praticamente não afetaram o ambiente do banco de dados. Pequeno número de injeção de falhas com o FIDe afetaram significativamente a dependabilidade do SGBD e os experimentos com a técnica de UHVHW geral foram os que mais comprometeram a dependabilidade do SGBD.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A divisão do processo de planejamento e controle da produção (PCP) em diferentes níveis hierárquicos é um dos mecanismos básicos para lidar com a incerteza. Por outro lado, a falta de integração entre estes níveis é apontada como uma dos obstáculos mais importantes à eficácia deste processo, uma vez que dificulta que as decisões tomadas nos diferentes níveis gerenciais sejam consistentes entre si. Este problema é particularmente importante em empreendimentos de construção, os quais, em função de sua complexidade e da incerteza envolvida, em geral requerem freqüentes modificações nos planos, podendo estas ser consideravelmente trabalhosas. O objetivo geral do presente trabalho consiste em propor diretrizes para a interligação do processo de planejamento e controle nos níveis de longo, médio e curto prazo, através da utilização de pacotes computacionais tradicionais, assim como contribuir para a consolidação e refinamento do modelo de PCP proposto por Formoso et al. (1999). O trabalho realizado foi dividido em três grandes etapas. A primeira delas compreendeu a realização de uma pesquisa bibliográfica. A segunda etapa consistiu no desenvolvimento de dois estudos de caso, realizados em empresas de construção do Estado da Bahia, uma delas atuante nos mercados de obras públicas e a outra em incorporações imobiliárias para a classe média-alta. Por fim, na terceira etapa foram analisados os resultados e propostas as diretrizes para a interligação dos diferentes níveis do PCP Entre as conclusões, pode-se destacar que a eficácia dos planos produzidos em pacotes computacionais depende fortemente da existência de um plano de ataque da obra, o qual deve ser discutido com a gerência da produção e explicitado graficamente, de forma a aumentar a transparência de processos. Quando o plano de longo prazo não é elaborado adequadamente, levando em conta as reais necessidades da gerência de produção, o esforço despendido na realização de alterações tende a ser muito grande, dificultando a utilização deste plano para controle em tempo real. O estudo também sugere um conjunto de indicadores que permitem avaliar o cumprimento de prazo e a aderência entre planos de diferentes níveis gerenciais. Estes indicadores são obtidos com relativa facilidade, a partir da utilização do pacote computacional MSProject. Finalmente, o estudo oferece algumas contribuições relativas a critérios para a definição de pacotes de trabalho, à medida que os planos necessitam serem detalhados nos níveis de médio e curto prazo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A representação de funções através da utilização de bases (KERNEL) de representação tem sido fundamental no processamento digital de sinais. A Transformada KARHUNEN-LOÈVE (KLT), também conhecida como Transformada HOTELLING, permite a representação de funções utilizando funções-base formadas pelos autovetores da matriz de correlação do sinal considerado. Nesse aspecto essa transformada fornece uma base ótima, isto é, aquela que proporciona o menor valor de Erro Quadrático Médio entre o sinal reconstruído e o original, para um determinado número de coeficientes. A dificuldade na utilização da KLT está no tempo adicional para calcular os autovetores (base) da matriz de correlação, o que muitas vezes inviabiliza a sua utilização nas aplicações em tempo real. Em muitas aplicações a KLT é utilizada em conjunto com outras transformadas melhorando os resultados destas aplicações. Sendo considerada a transformada ótima no sentido do Erro Quadrático Médio, este trabalho apresenta um estudo da Transformada KARHUNEN-LOÈVE nas aplicações de compressão de imagens bidimensionais estáticas e em tons de cinza, realizando também a comparação desta técnica com outras técnicas (DCT e WAVELET) buscando avaliar os pontos fortes e fracos da utilização da KLT para este tipo de aplicação. Duas técnicas importantes para solucionar o problema de cálculo dos autovalores e autovetores da matriz de correlação (Método de JACOBI e Método QL) são também apresentadas neste trabalho. Os resultados são comparados utilizando a Razão Sinal/Ruído de Pico (PSNR), a Razão de Compressão (CR) e os tempos de processamento (em segundos) para geração dos arquivos compactados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho tem como objetivo principal demonstrar uma nova metodologia que utilizará um motor automotivo adaptado a um módulo experimental onde será possível realizar-se medições da intensidade de detonação, e a partir desses valores determinar a octanagem dos combustíveis ensaiados, sendo este um método que oferece uma nova alternativa de baixo custo se comparado aos métodos tradicionais que utilizam motores CFR (Co-operative Fuel Research) fabricados pela Waukesha para determinação da octanagem dos combustíveis. O módulo experimental é composto por um motor automotivo acoplado a um freio eletromagnético e por sensores instalados em pontos estratégicos do motor que informam, em tempo real, os valores dos parâmetros de funcionamento do mesmo. A octanagem, para ser medida, a exemplo do que ocorre nos motores CFR, depende da ocorrência de detonação que é provocada durante a realização dos ensaios para que o valor de sua intensidade e o valor dos demais parâmetros de funcionamento do motor neste instante possam ser registrados. Para que pudesse ocorrer detonação em baixa rotação fez-se necessário à alteração do volume da câmera de combustão do motor utilizado, a fim de aumentar sua taxa de compressão e favorecer o aparecimento do fenômeno Durante a realização dos ensaios, no módulo experimental, utilizaram-se dois computadores para monitorar os parâmetros de funcionamento do motor e armazenar as informações adquiridas a partir da placa de aquisição de dados que transforma os sinais analógicos dos sensores em informações digitais, as quais serão utilizadas nos cálculos e na construção de gráficos para análise dos resultados do experimento. Após realizar-se os ensaios utilizando-se combustíveis de referência com diferentes valores de octanagem, foi possível determinar a exatidão dos resultados obtidos pelo método proposto comparando-os com os valores obtidos no motor CFR, sendo que o módulo experimental permitiu medir os valores de octanagens com uma incerteza de ± 1,66 octanas em um intervalo de confiança de 95,45%.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A Automação Residencial é uma área em crescimento no mercado mundial. À medida que os avanços tecnológicos são incorporados aos dispositivos pertencentes ao ambiente residencial, e que estes se tornam mais disseminados, surgem necessidades para fabricantes e usuários. Para os fabricantes, é desejável maior capacidade de conexão e intercâmbio de dados entre os dispositivos e, conseqüentemente, padronização. Para os usuários, é desejável maior facilidade na utilização dos dispositivos e, principalmente, na configuração dos mesmos em ambientes dinâmicos, de forma a não requerer interação do usuário para a conexão e desconexão, característica das redes espontâneas. Grandes empresas têm unido esforços no desenvolvimento de novos padrões e uma das tendências observadas é o isolamento destas novas necessidades numa camada entre a aplicação e o sistema operacional, denominada middleware. Este trabalho compara duas tecnologias que se enquadram nos critérios acima: Jini, da Sun Microsystems e Universal Plug and Play (UPnP), de um consórcio de empresas liderado pela Microsoft. O estudo é feito através do desenvolvimento de um protótipo, da definição de um conjunto de métricas qualitativas e quantitativas, e da implementação de um conjunto de workloads para a análise comparativa entre elas. Os resultados obtidos são apresentados e analisados, contribuindo com subsídios para os interessados em conhecer melhor ou optar por uma delas. Por fim, são registradas algumas necessidades observadas que poderão servir como base para trabalhos futuros.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Numerosas pesquisas estão introduzindo o conceito de grupo em padrões abertos para programação distribuída. Nestas, o suporte a grupo de objetos por meio de middlewares, apresentam diferentes abordagens de interligação com a aplicação. Segundo princípios defendidos na tese de Felber, essas abordagens vão ao encontro do objetivo de facilitar o desenvolvimento e proporcionar confiabilidade e desempenho. Neste contexto, localizou-se três enfoques básicos para a interligação com a aplicação, denominados integração, serviço, e interceptação, que utilizam a captura de mensagens para obtenção de informações ou como meio para adicionar novas funcionalidades às aplicações. A utilização dessas informações pode auxiliar no ajuste de parâmetros funcionais de serviços relacionados, na escolha de mecanismos, influindo em aspectos como, desempenho e segurança. Ao longo do estudo dessas abordagens, sentiu-se a necessidade de estudar detalhes e testar aspectos de implementação, suas premissas de uso e as conseqüências advindas da incorporação de seus mecanismos junto à aplicação. Este trabalho visa apresentar uma análise do comportamento das referidas abordagens por meio da implementação de protótipos, possibilitando assim, investigar problemas relacionados ao emprego da técnica e suas conseqüências quando integradas à aplicação. Os objetivos específicos reúnem a busca de informações qualitativas, tais como: modularidade, transparência, facilidade de uso e portabilidade; e informações quantitativas, fundamentalmente traduzidas pelo grau de interferência no desempenho da aplicação. O desenvolvimento dos protótipos teve como início a busca por um ambiente que ofereceria suporte as condições necessárias para a implementação das diferentes abordagens. Percebeu-se que definir os mecanismos diretamente sobre uma linguagem de programação, como C ou C++, não era viável. As versões padrões dessas linguagens não oferecem mecanismos capazes de suportar algumas características de implementação como, por exemplo, a captura de mensagens na abordagem de interceptação. A possibilidade é introduzida apenas por extensões dessas linguagens. Assim, a investigação de um ambiente de implementação voltou-se para mecanismos disponíveis em sistemas operacionais. A opção pela utilização do Linux visou atender alguns requisitos importantes para o desenvolvimento dos protótipos tais como: facilidade de instalação, boa documentação e código aberto. Este último é um ponto essencial, pois a construção de parte dos protótipos explora a programação em nível do sistema operacional. A linguagem de programação C foi escolhida como base para a implementação, já que as diferentes abordagens exploram tanto o nível do kernel como o nível do usuário, e é compatível com o Linux. A etapa de desenvolvimento dos protótipos possibilitou a coleta de informações sobre aspectos qualitativos. As demais informações que fazem parte do perfil levantado por este trabalho sobre as abordagens, foram obtidas através da utilização dos protótipos em experimentos com duas aplicações distribuídas denominadas de “Ping-Pong” e “Escolha dederes”, que têm como característica geral à troca de mensagens, utilizando comunicação através de sockets. A realização de medidas em múltiplas execuções, avaliadas após o tratamento estatístico necessário, permitiu definir um perfil das diferentes abordagens.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

presente trabalho objetiva construir um Modelo Exploratório de desenvolvimento de tecnologia da informação, aplicável no Brasil, tendo como referência as formas de organização do trabalho e da produção das comunidades Linux. O Modelo deve ser aplicado em ambiente Internet, ou em outras redes de telecomunicação. Por essa razão, utiliza métodos e técnicas de aprendizado à distância e e-Iearning. A construção do Modelo apoia-se, como alicerce teórico fundamental, no conceito de convivialidade de Illich (1976), no entendimento de Inose e Pierce (1984) sobre comunidades de interesse e democratização da produção de software, nos estudos de Malone (1997, 1998) referentes a modelos de organização em rede, nos estudos de Weber (2000) sobre comunidades de interesse online, na metodologia de capacitação "Pensamento Digital" de Joia (1999-1, 1999-2) e na estratégia pedagógico-metodológica do Australian National Training Authority (T AFE/SA). No entanto, as pesquisas de Matesco (2000, 2001) tomaram exeqüível a idéia da construção do Modelo, tendo que vista que o Modelo Exploratório proposto aplica-se, preferencialmente, a países, regiões, empresas ou organizações dependentes tecnologicamente de seus parceiros negociais e com escassez de recursos para aplicar em pesquisa e desenvolvimento. O caminho metodológico para a construção do Modelo inicia-se com uma sucinta abordagem sobre o sistema operacional Linux, a descrição das formas de organização das comunidades Linux e a identificação das formas de organização do trabalho e da produção no Fordismo-Taylorismo e no pós-Fordismo. Situa o funcionamento das comunidades Linux em relação a essas formas de organização. Descreve o processo de formação do conhecimento no aprendizado à distância e no elearning. Aborda a experiência de outros países com o Linux e com as comunidades Linux. Principalmente, o sucesso obtido pelos países nórdicos em absorção de tecnologia. A seguir, fundamentando-se em duas pesquisas de Matesco (2000,2001), analisa a dependência tecnológica do Brasil e propõe o Modelo Exploratório, cujo objetivo é, prioritariamente, colaborar para a redução dessa dependência, por meio de um processo de formação de conhecimento, baseado no aprendizado à distância e e-Iearning do Linux e na propagação de comunidades Linux, empregando-se o modelo de organização em rede.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A possibilidade de interagir em tempo real com o consumidor, ao contrário dos monólogos que normalmente caracterizam os tradicionais meios de marketing, alterou drasticamente o jeito como o Customer Service pode ser oferecido, pois permite pesquisas e compras de produtos e serviços on-line, o que representa um maior conforto para o homem contemporâneo, cujo tempo é bem escasso. O mercado representa um papel central na economia de qualquer nação, facilitando a troca de informações, bens, serviços e pagamentos, além de criar valores econômicos para compradores, vendedores, intermediários e para a sociedade de modo geral. Os mercados provêem a infra-estrutura física que permite que as transações entre os compradores e os vendedores ocorram. Dessa forma, entende-se que Mercado e Negociação eletrônica são especializações dos conceitos gerais de Mercado e Negociação. O uso de meios eletrônicos e, mais especificamente, o uso da Internet como recurso para promover o comércio, tem revolucionado todas as formas de comercialização existentes, promovendo o surgimento de novos tipos de mercados eletrônicos, os mercados baseados em Internet. Com tais vantagens, os mercados eletrônicos geram novas oportunidades de negócios, proporcionam novas estratégias para se atingir o consumidor, o fornecedor e os intermediários que estejam dispostos a somar valores na integração cliente/fornecedor. Mercados eletrônicos melhoram as informações compartilhadas entre compradores e fornecedores e ajudam a reduzir o custo de logística permitindo promoções rápidas, entregas imediatas e inventários reduzidos. É a infra-estrutura da informação substituindo sistemas de distribuição física. Foi, portanto, sobre esta temática que buscou-se desenvolver todo o trabalho de pesquisa, enfocando-se um caso real: Vitória Web Car, por ser uma organização que direcionou o seu foco para a qualidade dos serviços, como base para o seu crescimento e diferenciação no mercado do varejo virtual brasileiro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Vários métodos analíticos, numéricos e híbridos podem ser utilizados na solução de problemas de difusão e difusão-advecção. O objetivo deste trabalho é apresentar dois métodos analíticos para obtenção de soluções em forma fechada da equação advectivo-difusiva em coordenadas cartesianas que descreve problemas de dispersão de poluentes na água e na atmosfera. Um deles é baseado em regras de manipulação de exponenciais de operadores diferenciais, e o outro consiste na aplicação de simetrias de Lie admitidas por uma equação diferencial parcial linear. Desenvolvem-se regras para manipulação de exponenciais de operadores diferenciais de segunda ordem com coeficientes constantes e para operadores advectivo-difusivos. Nos casos em que essas regras não podem ser aplicadas utiliza-se uma formulação para a obtenção de simetrias de Lie, admitidas por uma equação diferencial, via mapeamento. Define-se um operador diferencial com a propriedade de transformar soluções analíticas de uma dada equação diferencial em novas soluções analíticas da mesma equação. Nas aplicações referentes à dispersão de poluentes na água, resolve-se a equação advectivo-difusiva bidimensional com coeficientes variáveis, realizando uma mudança de variáveis de modo a reescrevê-la em termos do potencial velocidade e da função corrente correspondentes ao respectivo escoamento potencial, estendendo a solução para domínios de contornos arbitrários Na aplicação referente ao problema de dispersão de poluentes na atmosfera, realiza-se uma mudança de variáveis de modo a obter uma equação diferencial parcial com coeficientes constantes na qual se possam aplicar as regras de manipulação de exponenciais de operadores diferenciais. Os resultados numéricos obtidos são comparados com dados disponíveis na literatura. Diversas vantagens da aplicação das formulações apresentadas podem ser citadas, a saber, o aumento da velocidade de processamento, permitindo a obtenção de solução em tempo real; a redução da quantidade de memória requerida na realização de operações necessárias para a obtenção da solução analítica; a possibilidade de dispensar a discretização do domínio em algumas situações.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A recuperação por retorno baseada em checkpointing é largamente usada como técnica de tolerância a falhas. O modelo complexo de sistemas distribuídos tem motivado o desenvolvimento de diversos algoritmos na tentativa de encontrar soluções mais simples e eficientes. Os processos que formam o sistema distribuído podem coordenar suas operações para garantir que o conjunto de checkpoints locais componha um estado global consistente (linha de recuperação). A partir desse estado, no caso de ocorrência de falhas, o sistema pode ser recuperado e a computação retomada a partir de um momento anterior ao da manifestação da falha, evitando o retrocesso para o estado inicial da computação e prevenindo a ocorrência de prejuízos com a perda de todo processamento até então realizado. No Grupo de Tolerância a Falhas da UFRGS foi proposto recentemente um algoritmo que é voltado para aplicações que executam em sistemas distribuídos assíncronos que se comunicam exclusivamente pela troca de mensagens. Ele opera com salvamento coordenado de checkpoints (não bloqueando as aplicações) e prevê o tratamento de mensagens órfãs e perdidas. Os mecanismos do algoritmo sugerem que nenhuma alteração deveria ser realizada no código das aplicações, criando a possibilidade de implementação transparente sob o ponto de vista dos usuários e dos programadores das aplicações. Como o algoritmo não requer o bloqueio das aplicações, a sobrecarga imposta pelos mecanismos à execução livre de falhas é pequena. Além disso, o processo de recuperação tende a ser efetuado rapidamente, uma vez que é garantida a existência de uma linha de recuperação consistente, facilmente identificada Este trabalho apresenta as decisões de projeto, a implementação, os resultados e a avaliação de desempenho desse algoritmo. A avaliação das alternativas de implementação resultou na decisão de uma implementação então realizada diretamente sobre o sistema operacional Linux, sem recorrer a protocolos auxiliares para garantir a execução dos serviços e sem a necessidade de adaptações no código das aplicações nem no código do sistema operacional. Adicionalmente, os resultados comprovaram a expectativa inicial de que o algoritmo causaria pouca sobrecarga no sistema (menos de 2%), embora ele ainda apresente alta dependência do tamanho dos checkpoints salvos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente trabalho objetivou avaliar o efeito do número de espermatozóides na dose inseminante sobre a taxa de prenhez (TPr) e no número de embriões de fêmeas suínas inseminadas pela técnica intra-uterina (IAU), em uma única inseminação (IA), efetuada no intervalo de até 24 horas antes da ovulação, considerando o refluxo de sêmen pós-inseminação. Foram utilizadas 211 fêmeas pluríparas híbridas (Landrace x Large White), com ordem de parto variando de dois a nove e intervalo desmame-estro de dois a seis dias. O diagnóstico de estro foi realizado duas vezes ao dia. Foram utilizadas doses com volume total de 20 ml contendo 0,25 x 109 (tratamento 1), 0,5 x 109 (tratamento 2) ou 1,0 x 109 (tratamento 3) espermatozóides diluídos em Beltsville Thawing Solution (BTS) produzidas em “split sample”. Quatro machos híbridos (Landrace x Large White x Pietrain) foram utilizados como doadores de sêmen. Foi acompanhada a motilidade (MOT) de uma dose de 100 ml contendo 2,5 x 109 espermatozóides proveniente de cada coleta de sêmen com a finalidade de avaliar a viabilidade espermática durante as 240 horas de armazenamento a 17°C. A coleta do refluxo vulvar, até 60 minutos após a IAU foi realizada com bolsas de colostomia descartáveis fixadas na região peri-vulvar. A determinação do número de espermatozóides contidos no refluxo foi realizada em câmara hemocitométrica. O diagnóstico de gestação foi realizado aos 20-23 dias com auxílio da ultra-sonografia transcutânea em tempo real. As fêmeas prenhes foram abatidas 34-41 dias após a IAU, onde foram coletados o útero e os ovários para contagem dos corpos lúteos e embriões. A passagem do cateter foi possível em todas as fêmeas. Não houve refluxo no momento da realização da IAU. Não houve diferença (P>0,05) no percentual de volume (pvol) e de espermatozóides (psptz) refluídos até 60 minutos após a IAU entre os três tratamentos. O baixo (inferior a 15%) ou alto (superior a 15%) psptz refluídos não influenciou a TPr, mas houve correlação negativa (P=0,0003; R=-0,34) do psptz refluídos com o número de embriões totais (NET). Não houve refluxo em apenas oito fêmeas e a amplitude do pvol variou de 0-136%. No presente trabalho, a MOT das doses inseminantes foi semelhante entre os quatro machos (P>0,05). A TPr não diferiu entre os tratamentos (P=0,36) porém foram verificadas diferenças (P<0,05) entre os machos dentro de cada tratamento. A redução na taxa de prenhez foi mais acentuada para o macho D, quando foram utilizadas doses com menor número de espermatozóides. Não houve efeito do macho ou da interação macho com tratamento sobre o número de embriões (P>0,05). O NET e viáveis diferiu entre o T1 e T2 (P<0,05). Utilizando-se apenas uma única inseminação intra-uterina no intervalo de até 24 horas antes da ovulação com 0,5 x 109 espermatozóides, é possível alcançar índices superiores a 85% de prenhez e 14 embriões, aos 34-41 dias de gestação.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nos últimos anos o avanço da chamada tecnologia telemática, sobretudo a partir da Internet, proporcionou a constituição de um novo ambiente de interação social, o ciberespaço, particularmente atraente pela facilidade de comunicação a qualquer distância e em tempo real de voz, dados e imagens. A exploração econômica deste fascinante meio de relacionamento interpessoal já impõe aos operadores jurídicos inúmeros desafios, sobretudo em relação à proteção do consumidor. Se nas relações econômicas tradicionais deve-se levar em conta a vulnerabilidade do consumidor, preocupação ainda maior existe quanto às operações concretizadas por meio da Internet, tendo em vista, especialmente, a dificuldade de identificar os sujeitos envolvidos, a imaterialidade dos objetos, as técnicas agressivas de venda, os acentuados riscos de danos patrimoniais e extrapatrioniais e as dificuldades práticas para judicialização dos conflitos, etc. O presente trabalho aborda tais aspectos à luz da teoria contratual contemporânea, focalizando especificamente a responsabilidade civil dos sites de comércio eletrônico dedicados à aproximação de vendedores e compradores por meio da Internet. Objetiva-se, com isso, contribuir para a consolidação de uma dogmática jurídica específica sobre as relações de consumo na Internet, que proporcione tutela efetiva para as legítimas expectativas dos consumidores nas aquisições em sites de intermediação no comércio eletrônico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introdução: As doenças mitocondriais apresentam características heterogêneas devido à própria natureza e função da mitocôndria, que possui o seu próprio DNA (mtDNA). A disfunção mitocondrial pode afetar um único órgão ou ser uma doença multissistêmica, de manifestação na infância ou na vida adulta, podendo ter um padrão de herança materna ou mendeliana. O diagnóstico é complexo e requer uma investigação criteriosa, passo-a-passo, com atenção a história clínica, exames laboratoriais, neuroimagem e, muitas vezes, a biópsia muscular para análise histoquímica, bioquímica e genética. A análise molecular é fundamental na definição do diagnóstico e os protocolos propostos até o momento são, geralmente, direcionados para um grupo de pacientes com características clínicas homogêneas. Objetivos: os objetivos deste trabalho foram: a) propor um protocolo combinando dados clínicos e laboratoriais para indicar a melhor forma de investigação molecular de pacientes com suspeita clínica de doença do DNA mitocondrial, b) Comparar os achados clínicos e laboratoriais nos pacientes com e sem mutação no mtDNA, c) avaliar quais são os fatores clínicos preditivos de mutação no mtDNA que podem ser utilizados como sinalizadores para o médico decidir quando deve ser realizado um procedimento diagnóstico invasivo e de alto custo, c) estimar a proporção de mtDNA mutado, através da técnica PCR em tempo real em um grupo de pacientes com deleção, correlacionando com a idade de início dos sintomas e gravidade de manifestações clínicas, d) relatar achados de RNM com espectroscopia por emissão de prótons em pacientes com deleção no mtDNA. Pacientes, material e métodos: Foram selecionados, no ambulatório de doenças mitocondriais do HCPA, 43 pacientes com suspeita clínica de doença mitocondrial. Esse pacientes foram submetidos à análise, por etapas, de 5 mutações de ponto no mtDNA de leucócitos, de deleção no mtDNA de músculo e ao sequenciamento do tRNAleu e tRNAlys. Os pacientes com resultados positivos e negativos para mutações do mtDNA foram então comparados em relação às suas características clínicas e laboratoriais. Foram selecionados 11 pacientes para a determinação da percentagem relativa de deleção do mtDNA no tecido muscular e 3 pacientes para a descrição da RNM com espectroscopia. Resultados – Foram encontradas mutações no mtDNA em 17 pacientes (39.9%) distribuídas da seguinte forma: 4 pacientes com MELAS (A3243G), 1 paciente com síndrome de Leigh (T8993C) e 12 pacientes com deleções no mtDNA. As características significativamente mais freqüentes no grupo de pacientes com mutação no mtDNA comparados com os demais foram: miopatia (p=0,032), retinopatia pigmentar (p=0,007), oftalmoplegia e ptose (p=0,002), baixa estatura (p=0,04), hipotrofismo (p=0,033) e acidose lática (p=0,006). A quantificação do mtDNA pela técnica de PCR em tempo real foi realizada em 11 amostras de músculo de pacientes com deleção no mtDNA e com diferentes manifestações clínicas. Não houve correlação entre a percentagem relativa de deleção no mtDNA com os fenótipos clínicos (PEO, KSS e encefalomiopatia associado à doença multissistêmica), bem como com a idade de início das manifestações clínicas. A RNM com espectroscopia por emissão de prótons realizada em três pacientes com deleção no mtDNA associada a um quadro clínico não clássico mostrou achados distintos para cada paciente, sendo comum a todos as lesões cerebrais e a presença do pico invertido de lactato. Conclusões - A criteriosa seleção clínica e laboratorial se mostrou apropriada e o protocolo empregado se mostrou eficiente, uma vez que a mutação no mtDNA pode ser detectada em 17 dos 43 pacientes com suspeita de doença mitocondrial. Os pacientes positivos para deleção no mtDNA apresentaram algumas características clínicas preditivas para doença do mtDNA, o que pode ser importante na indicação de um procedimento invasivo (biópsia muscular) e de alto custo. A técnica e PCR em tempo real pode ser utilizado para quantificar a percentagem relativa de mtDNA deletado, porém para o diagnóstico das deleções, essa técnica deve ser realizada de forma complementar à técnica tradicional (Southern blot). O número amostral ainda é pequeno para correlacionar a quantidade relativa de mtDNA deletado com as síndromes mitocondriais clássicas e não clássicas. A RNM com espectroscopia por emissão de prótons, por possibilitar a detecção do lactato cerebral, parece ter utilidade na avaliação clínica de pacientes com suspeita clínica de doença mitocondrial, mesmo quando o quadro não é clássico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho apresenta um protótipo de uma máquina de workflow, de uso geral, implementado em plataforma de software livre. O protótipo utiliza um servidor web com PHP, em sistema operacional Linux, alguns programas desenvolvidos em C e o banco de dados MySql. O projeto CEMT demanda o uso da tecnologia de workflow, com o objetivo de controlar a execução de cursos a distância. Antes de ser iniciado o desenvolvimento do protótipo, foi feito um estudo sobre algumas máquinas de workflow existentes, com o objetivo de encontrar alguma que tivesse licença livre e pudesse ser utilizada no projeto CEMT, ou colher subsídios para o desenvolvimento de uma máquina de workflow própria. Foram testadas duas máquinas de workflow de licença livre (Openflow e OFBIZ), uma máquina com cópia de demonstração (Reactor) e foram consultadas as documentações fornecidas pelos fabricantes. Além disso foi consultada também a documentação do Domino Workflow, que não disponibilizou cópia de avaliação e cuja licença não é livre. Um dos requisitos do protótipo é a compatibilidade com os padrões de interface recomendados pela WfMC. Esses padrões permitem a interoperabilidade entre softwares de workflow. O primeiro benefício da adoção desses padrões é a interação com o editor gráfico de workflow AW (Amaya Workflow), desenvolvido no Instituto de Informática da UFRGS. Este editor gera definições de processos de workflow no formato da linguagem XPDL (XML Process Definition Language), que alimentam a máquina de workflow. O esquema XPDL foi traduzido para um esquema de banco de dados relacional e foi desenvolvido um compilador que lê um arquivo no formato XPDL e gera comandos SQL de inserção das informações desse arquivo no banco de dados. Foi desenvolvida uma interface web para demonstrar o funcionamento do protótipo. A API definida na Interface 2 da WfMC foi implementada parcialmente. Essa API permite o desenvolvimento independente de outras interfaces de usuário. Foram propostas algumas extensões à Interface 1 e modificações na definição de estados recomendada pela Interface 2 da WfMC. Com isso foi possível aumentar o controle sobre a execução das instâncias de workflow. Foram incluídas as restrições de data e possibilidade de bloqueio na execução de instâncias de atividades. Outras extensões possibilitam um serviço de notificações e atividades em grupo e oferecem novas possibilidades de alocação de atividades. O funcionamento básico do protótipo é descrito e inclui as funcionalidades de carga da definição de processo, instanciação de processo, visualização da lista de trabalho e execução das atividades, entre outras.