116 resultados para estudos de validação
Resumo:
A validação de projetos de sistemas eletrônicos pode ser feita de diversas maneiras, como tem sido mostrado pelas pesquisas em síntese automática e verificação formal. Porém, a simulação ainda é o método mais utilizado. O projeto de um sistema digital típico pode ser desenvolvido em diversos níveis de abstração, como os níveis algorítmico, lógico ou analógico. Assim, a simulação também deve ser executada em todos esses níveis. A simulação apresenta, contudo, o inconveniente de não conseguir conciliar uma alta acuracidade de resultados com um baixo tempo de simulação. Quanto mais detalhada é a descrição do circuito, maior é o tempo necessário para simulá-lo. O inverso também é verdadeiro, ou seja, quanto menor for a acuracidade exigida, menor será o tempo dispendido. A simulação multinível tenta conciliar eficiêencia e acuracidade na simulação de circuitos digitais, propondo que partes do circuito sejam descritas em diferentes níveis de abstração. Com isso, somente as partes mais críticas do sistema são descritas em detalhes e a velocidade da simulação aumenta. Contudo, essa abordagem não é suficiente para oferecer um grande aumento na velocidade de simulação de grandes circuitos. Assim, surge como alternativa a aplicação de técnicas de processamento distribuído à simulação multinível. Os aspectos que envolvem a combinação dessas duas técnicas são abordados nesse trabalho. Como plataforma para os estudos realizados, optou-se por usar duas ferramentas desenvolvidas nessa Universidade: os simuladores do Sistema AMPLO e o Sistema Operacional HetNOS. São estudadas técnicas de sincronização em sistemas distribuídos, fundamentais para o desenvolvimento dos simuladores e, finalmente, são propostas alternativas para a distribuição dos simuladores. É realizada, ainda, uma análise comparativa entre as versões propostas.
Resumo:
As endometrites bacterianas são uma das principais causas de infertilidade na égua. Entre os tratamentos utilizados nesta patologia, estão as infusões uterinas de plasma homólogo acrescido de leucócitos e a infusão de leucócitos heterólogos criopreservados. O presente trabalho teve por objetivo realizar testes in vivo e in vitro, que foram descritos em dois artigos. No primeiro artigo, objetivou-se avaliar in vitro a quimiotaxia dos leucócitos eqüinos em relação a diferentes quimioatraentes, bem como sua vitalidade e produção de radicais livres de oxigênio (ROS) pós-descongelamento. No experimento 1, testou-se dextrose em concentrações de 0, 1, 2 e 6%, acrescida ou não de interleucina-8 (IL-8), como quimioatraente para leucócitos eqüinos suspensos em salina fosfatada tamponada (PBS) ou em R3F; no experimento 2, testou-se plasma homólogo ou heterólogo, a 3% (com ou sem IL-8), 10, 30, 60 e 90%, como quimioatraente; no experimento 3, foi testada a quimiotaxia de leucócitos íntegros em relação a diferentes quantidades de leucócitos lisados. O experimento 4 avaliou a vitalidade e a geração de ROS pelos leucócitos após o descongelamento, comparando quatro graus de diluição em NaCl e PBS. Concluiu-se que a dextrose não apresenta bom efeito quimioatraente para leucócitos eqüinos. Dentre as concentrações de plasma utilizadas, concentrações de plasma homólogo entre 10% e 60% apresentam bom efeito quimiotático. Já o plasma heterólogo apresentou boa atração de leucócitos quando em concentrações de 10% e de 30% Na concentração de 10x106/mL, os leucócitos lisados foram capazes de atrair leucócitos em proporção semelhante à da IL-8. Com relação aos testes-pós-descongelamento, células ressuspendidas em PBS ou NaCl apresentam vitalidade e geração de radicais livres de oxigênio semelhantes, quando incubados por até 15 minutos. No segundo artigo, realizaram-se testes in vivo compararando cinco tratamentos em éguas, em estro, experimentalmente infectadas com Streptococcus equi subsp.zooepidemicus. Foram utilizadas 25 éguas, 20 consideradas resistentes, e 5 éguas susceptíveis à endometrite. Após 24 horas, os animais foram submetidos a exame clínico, bacteriológico e citológico. Com a presença de quadro clínico de endometrite, as éguas eram submetidas a um dos seguintes tratamentos: 1-Infusão de 120mL de plasma homológo com de leucócitos frescos; 2-– Infusão de 4 mL contendo 800 x 106 leucócitos íntegros, congelados; 3-Leucócitos lisados - Infusão de 4 mL contendo 800 x 106 leucócitos lisados; 4- IL-8- Infusão de 4 mL contendo 25 ng/mL de IL-8 congelada; 5-Controle – Infusão de 4 mL de meio R3F congelado. Os exames clínico, bacteriológico e citológico foram realizados diariamente até o sétimo dia pós-infecção, ou até a eliminação da bactéria, ou até a ausência de neutrófilos no esfregaço citológico. Após os exames, as éguas receberam o tratamento designado, sendo estes realizados diariamente até a ausência de crescimento bacteriano no exame microbiológico ou por, no máximo, quatro dias. No sétimo dia, todas as éguas foram tratadas com infusão intra-uterina de 5.000.000 UI de penicilina G potássica cristalina. Após o término de um tratamento, aguardava-se cerca de sete dias para a reinfecção, num outro ciclo, quando um outro tratamento era aplicados. Todas as éguas foram submetidas a todos os tratamentos, perfazendo um total de 125 infecções experimentais num delineamento experimental do tipo Quadrado Latino. Não se observaram diferenças significativas no tempo de eliminação bacteriana nas éguas resistentes. Entretanto, nas éguas susceptíveis, observou-se uma cura bacteriana mais rápida quando as éguas foram tratadas com leucócitos frescos, leucócitos congelados e leucócitos lisados, em relação às tratadas com IL-8 e as do grupo controle. Concluiu-se que o efeito bactericida dos leucócitos viáveis ou lisados, associados ou não à presença de fatores de opsonização do plasma, foi o responsável pela cura bacteriológica e que o efeito quimioatraente de neutrófilos, plasma, restos celulares e IL-8 não influiu no tempo de eliminação bacteriana.
Resumo:
Resumo não disponível.
Resumo:
A tese aborda a constituição e as formas de ação adotadas por três centros de estudos e pesquisas em economia, financiados por grupos de empresas, cujos membros mais destacados chegaram à condução econômica, ocupando, em inúmeras ocasiões, postos governamentais, especialmente ministérios da área, presidência dos bancos centrais e outros cargos relevantes no Brasil e na Argentina, num amplo período compreendido entre os anos de 1961 e 1996, abarcando tanto a crise dos regimes populistas, quanto a passagem dos governos autoritários e democráticos, que lhes sucederam. As instituições de que trata o trabalho são, o Instituto de Pesquisas Econômicas e Sociais (IPÊS), a Fundación de Investigaciones Económicas Latinoamericanas (FIEL) e a Fundación Mediterránea (FM), escolhidas por serem atores fundamentais no desenho das políticas implementadas por distintos governos dos dois países, durante o último terço do século XX. Entidades que podem ser consideradas paradigmas de uma nova matriz de relação entre o Estado, as corporações empresariais e os técnicos vinculados fundamentalmente à área econômica, desenvolvida no período. De modo diferente das corporações de padrão mais antigo, essas instituições contaram com uma estrutura mais dinâmica e atuaram como ponte entre o Estado e os empresários para desenhar e por em prática, seja de forma direta ou indireta, políticas de transformações profundas nas suas estruturas econômicas, afastando-se dos modelos desenvolvimentistas para aproximarem-se, cada vez mais, dos moldes liberais, alcançando certo consenso no interior de diferentes frações das burguesias e de outros setores das sociedades brasileira e argentina.
Resumo:
Os indicadores de sustentabilidade são um instrumento valioso na identificação dos níveis de qualidade de vida das concentrações populacionais. Também são uma poderosa ferramenta na elaboração e monitoramento de metas em desenvolvimento sustentável. Essas afirmativas são válidas para qualquer escala: quer seja para uma cidade, ou para um pequeno núcleo habitacional. Um dos produtos dos indicadores de sustentabilidade é a construção de diagnósticos. Esses diagnósticos são mais fiéis na proporção inversa ao tamanho do universo observado. Boa parte dos indicadores de sustentabilidade ainda é genérica e com informações agregadas, o que pode não caracterizar eficazmente parcelas da população. Inclui-se aí os núcleos de habitação popular, que, salvo exceções, não possuem diagnósticos locais. Parte disso deve-se à falta de uma metodologia para identificação e aplicação de indicadores específicos e comprometidos com a realidade em pequena escala, subsídio importante na elaboração dos diagnósticos locais. É nesse sentido que este trabalho procura contribuir, construindo uma metodologia de identificação e avaliação de indicadores de sustentabilidade, voltada para aplicação em habitação popular. O método proposto tem como condição fundamental a participação dos moradores dessas comunidades, mostrando o perfil mais próximo possível da realidade daquelas pessoas. O estudo faz uma contextualizção teórica sobre o assunto e registra algumas experiências com indicadores, fornecendo subsídios à proposição metodológica metodológica. Como forma de testar sua validade, o método foi aplicado em uma pequena comunidade de habitação popular no município de Alvorada/RS. A aplicação do método demonstrou que é possível obter-se um diagnóstico rápido e fiel, e ao mesmo tempo visualizar os pontos críticos de sustentabilidade, de um pequeno núcleo de habitação popular, explicitando os problemas que mais afligem essas populações.
Resumo:
Este trabalho abordou o tema validação de processos farmacêuticos, tendo como objetivos o levantamento do referencial teórico relativo ao tema, o acompanhamento do projeto de elaboração de um Plano Mestre de Validação (PMV) em uma empresa Farmacêutica e a apresentação de uma proposta para a elaboração de um Plano Mestre de Validação de processos farmacêuticos. De acordo com a revisão da literatura, a validação na produção de medicamentos em empresas farmacêuticas deve ser resultado do trabalho de uma equipe de profissionais de diferentes departamentos da empresa. Este perfil multifuncional da equipe implica em comprometimento com o trabalho a ser realizado, definição de responsabilidades e atividades. A proposta apresentada sugere um caminho para a elaboração desse Plano, contemplando as validações do tipo prospectivas, através da abordagem de projetos e das etapas que o caracterizam: definição conceitual, planejamento, execução e conclusão. Além da revisão bibliográfica, a proposta foi concebida com base no trabalho realizado junto a uma empresa farmacêutica, resultando na construção de três fluxos, referentes a: tipos de validação, etapas da validação e etapas pós-validação. O trabalho prático conduzido junto à empresa permitiu a estruturação de um PMV para um processo de produção específico.
Resumo:
Nas últimas décadas o conhecimento florístico e taxonômico sobre a família Solanaceae no Rio Grande do Sul tem recebido incremento significativo de informações. Dos gêneros com espécies nativas, Bouchetia, Calibrachoa, Nicotiana, Nierembergia, Petunia e Solanum já foram alvo de revisões. Visando complementar o estudo desta família no Estado, foram estudados os gêneros Acnistus, Athenaea, Aureliana, Brunfelsia, Capsicum, Cestrum, Dyssochroma, Grabowskia, Lycianthes, Solandra e Vassobia, além das espécies do gênero Solanum seção Pachyphylla (Cyphomandra sensu lato). Foram catalogadas 22 espécies nativas, sendo três destas, novas citações de ocorrência. Para os onze primeiros gêneros foram identificados 19 espécies, dos quais cinco são de ocorrência restrita (Athenaea picta, Dyssochroma longipes, Grabowskia duplicata, Lycianthes rantonnei e Solandra grandiflora). A seção Pachyphylla do gênero Solanum está representada por três espécies. Dessa forma, foram atualizados os dados quali e quantitativos sobre a participação da família Solanaceae na flora sul-riograndense. Para cada gênero e para cada táxon específico foram elaboradas descrições, e acrescentados dados sobre fenologia, hábitat, comentários pertinentes e mapas de ocorrência. Chaves analíticas para identificação das espécies, quando mais de uma, também foram elaboradas. A revisão de doze herbários regionais possibilitou a elaboração de uma sinopse taxonômica e de uma chave analítica para identificação dos gêneros presentes no Estado. Dos 27 gêneros confirmados, 22 têm espécies nativas. O número de espécies nativas é de 114 e o de introduzidas, cultivadas ou assilvestradas, é até o momento 26.
Resumo:
A presente tese descreve a síntese e estabilização de nanopartículas de Pt (0) nos líquidos iônicos BMI.PF6, BMI.BF4 e BMI.CF3SO3, a síntese de nanopartículas bimetálicas de Pd/Pt (0) em líquido iônico BMI.PF6, a caracterização destes materiais por TEM, HRTEM, XRD, SAXS e XPS, e principalmente o estudo da aplicação destes materiais como catalisadores em reações de hidrogenação. A decomposição do precursor catalítico Pt2(dba)3 e redução do precursor PtO2 dissolvidos nos líquidos iônicos BMI.PF6, BMI.BF4 e BMI.CF3SO3 utilizando hidrogênio molecular como agente redutor resultou em nanopartículas de Pt (0) com um diâmetro médio entre 2-3 nm. Essas partículas, devidamente caracterizadas, foram utilizadas como catalisadores na hidrogenação de compostos olefínicos e aromáticos. Estudos cinéticos e mecanísticos de formação das nanopartículas metálicas, utilizando a hidrogenação de cicloexeno como sonda química, foram aplicados para avaliar e confirmar que as espécies ativas presentes nas reações de hidrogenação eram compostas de Pt (0). Os resultados obtidos foram complementados por TEM. As caracterizações das nanopartículas de Pt (0) (TEM, SAXS e XPS), os estudos cinéticos de formação destas, assim como, os dados de hidrogenação catalítica; evidenciaram que os líquidos iônicos utilizados são um excelente agente estabilizante para a síntese de nanopartículas de Pt (0) e Pd/Pt (0), bem como um meio ideal para reações de hidrogenação catalítica.
Resumo:
Este trabalho apresenta uma proposta metodológica para o ensino de Ciência da Computação para Crianças, elaborada, a partir de pesquisas e estudos, tendo, como objetivo, a aplicação dessa metodologia para correção e testes. Devido à disseminação dos computadores e de seu uso como parte da formação dos alunos, muito se tem discutido sobre a união entre os recursos tecnológicos e a educação. A inclusão da informática no processo educativo vem sendo direcionada para a utilização e classificação de produtos de software educacional, em técnicas de comunicação à distância, no uso de recursos de multimídia ou de realidade virtual para apoio ao conteúdo abordado pelo professor e, também, para a construção de ambientes computacionais, que possam proporcionar uma mudança de paradigma educacional. No entanto não adianta tornar disponível toda essa tecnologia, se, rapidamente, são abandonadas e são substituídas ferramentas e técnicas dentro da Computação. Por isto, tão importante quanto o ensino das tecnologias correntes é o ensino dos conceitos fundamentais da Ciência da Computação. Esses conceitos, além de proporcionarem um embasamento teórico para entendimento da ciência envolvida na computação, também propiciam o desenvolvimento de um raciocínio lógico e formal, assim como de habilidades que são exigidas no mundo atual. Este trabalho apresenta pesquisas de campo sobre o uso da Informática Educativa em algumas escolas, a identificação, através de professores da graduação e pós-graduação, de alguns dos conceitos fundamentais da Ciência da Computação e uma pesquisa sobre o que crianças gostariam de aprender sobre Ciência da Computação. A partir dos resultados, são elaboradas teorias, demonstrações e exercícios para o ensino destes para crianças. Essa metodologia é aplicada a duas turmas heterogêneas de crianças para sua validação. Pretende-se que o estudo desses conceitos aguce o senso crítico e capacite as crianças não só a usarem as tecnologias mas também a entenderem seu funcionamento.
Resumo:
Alta disponibilidade (muitas vezes referenciada como HA, de High Availability) é uma característica de sistemas computacionais que são projetados para evitar ao máximo as interrupções, planejadas ou não, na prestação de serviços. Em alta disponibilidade, o ideal é haver poucas falhas e, mesmo quando estas acontecerem, que o seu tempo médio de reparo (ou MTTR, de Mean Time To Repair) seja tão pequeno quanto possível. Sistemas operacionais têm um papel importante em alta disponibilidade, sendo preferível o uso daqueles que possuam sistemas de arquivos seguros e relativamente independentes de ações por agentes humanos para a recuperação. Uma das abordagens para auxiliar a obter-se uma alta disponibilidade em sistemas de arquivos é a do tipo journaling, ou meta-data logging. Existe uma série de sistemas de arquivos para o sistema operacional Linux baseando-se nela, tais como ext3, JFS, ReiserFS e XFS. Este trabalho tem por objetivo propor uma metodologia de validação experimental para avaliar a eficiência do mecanismo para recuperação de sistemas de arquivos baseados em journaling, na ocorrência de falhas. Para isso, a técnica de validação empregada é a da injeção de falhas e o sistema sob teste é uma implementação do XFS. Foram utilizados os recursos de depuração do sistema operacional Linux (que permitem a utilização de métodos para interceptação e manipulação de chamadas de sistema) para a implementação de um injetor de falhas específico para sistemas de arquivos baseados em journaling, o qual foi chamado de FIJI (Fault Injector for Journaling fIlesystems). Manipular os parâmetros de chamadas de sistema (ou system calls) através do FIJI equivale a alterar as requisições feitas ao sistema operacional. A eficiência do mecanismo de journaling é medida injetando-se falhas e medindose o MTTR e a cobertura de falhas. Basicamente, o que procura-se fazer através do injetor de falhas FIJI é ignorar os logs do journaling e manipular uma quantidade de informações diferente daquela que foi solicitada originalmente.
Resumo:
Esta Tese apresenta a investigação de técnicas computacionais que permitam a simulação computacional da compreensão de frases faladas. Esta investigação é baseada em estudos neurocognitivos que descrevem o processamento do cérebro ao interpretar a audição de frases. A partir destes estudos, realiza-se a proposição do COMFALA, um modelo computacional para representação do processo de compreensão da fala. O COMFALA possui quatro módulos, correspondentes às fases do processamento cerebral: processamento do sinal de fala, análise sintática, análise semântica e avaliação das respostas das análises. Para validação do modelo são propostas implementações para cada módulo do COMFALA. A codificação do sinal se dá através das transformadas ondeletas (wavelets transforms), as quais permitem uma representação automática de padrões para sistemas conexionistas (redes neurais artificiais) responsáveis pela análise sintática e semântica da linguagem. Para a análise sintática foi adaptado um sistema conexionista de linguagem escrita. Por outro lado, o sistema conexionista de análise semântica realiza agrupamentos por características prosódicas e fonéticas do sinal. Ao final do processo, compara-se a saída sintática com a semântica, na busca de uma melhor interpretação da fala.
Resumo:
Neste trabalho é descrito um método automático para o cálculo das dimensões de caixas, em tempo real, a partir de uma única imagem obtida com projeção perspectiva. Conhecendo a orientação da caixa no espaço tridimensional e sua distância em relação à câmera, as coordenadas 3D de seus vértices podem ser estimadas e suas dimensões calculadas. Na técnica proposta, são utilizados conceitos de geometria projetiva para estimar a orientação espacial da caixa de interesse a partir de sua silhueta. Já a distância da caixa em relação à câmera é estimada por meio da projeção de feixes de laser sobre uma das faces visíveis da caixa. Esta abordagem pode ser aplicada quando duas ou três faces da caixa de interesse são visíveis simultaneamente na imagem, mesmo quando a caixa encontra-se parcialmente oclusa por outros objetos na cena. Entre as contribuições deste trabalho está o desenvolvimento de um eficiente processo de votação para a transformada de Hough, onde os pixels de uma imagem binária são processados em grupos ao invés de individualmente, como ocorre no método convencional. Também é apresentado um modelo estatístico para a remoção de fundo de cena. Nesse modelo, a cor de fundo é representada sob diferentes condições de iluminação por meio da delimitação de uma região no espaço de cores RGB. O modelo proposto não requer parametrização e é próprio para o uso em aplicações que requeiram câmeras móveis. Para a validação das técnicas descritas neste trabalho, foi construído um protótipo de scanner que calcula as dimensões de caixas a partir de imagens em tempo real. Com o auxilio do scanner, foram capturadas imagens e calculadas as dimensões de diversas caixas reais e sintéticas. As caixas sintéticas foram utilizadas em um ambiente controlado para a validação das técnicas propostas Um dos aspectos importantes deste trabalho é a análise da confiabilidade das medidas obtidas por meio da técnica proposta. Com o objetivo de estudar a propagação de erros ao longo do processo de cálculo das medidas, foi aplicado um método analítico baseado na Teoria de Erros. Também são apresentados estudos estatísticos envolvendo medições realizadas com o protótipo. Estes estudos levam em conta a diferença entre as medidas calculadas pelo sistema e as medidas reais das caixas. A análise dos resultados permite concluir que o método proposto é acurado e preciso.