39 resultados para Teste de software. Geração de testes. Gramáticas
Resumo:
Este trabalho descreve a especificação e implementação do protótipo Assistente de Feedback que ajuda os usuários a ajustarem os parâmetros do serviço de filtragem de mensagens vindas do correio eletrônico de sistemas como o Direto. O Assistente de Feedback é instalado no computador do usuário do Direto para monitorar suas preferências representadas pelas ações aplicadas nas mensagens do correio eletrônico. O trabalho apresenta, ainda, uma revisão bibliográfica sobre os conceitos gerais de probabilidades, redes Bayesianas e classificadores. Procura-se descrever as características gerais dos classificadores, em especial o Naive Bayes, sua lógica e seu desempenho comparado a outros classificadores. São abordados, também, conceitos relacionados ao modelo de perfil de usuário e o ambiente Direto. O Naive Bayes torna-se atraente para ser utilizado no Assistente de Feedback por apresentar bom desempenho sobre os demais classificadores e por ser eficiente na predição, quando os atributos são independentes entre si. O Assistente de Feedback utiliza um classificador Naive Bayes para predizer as preferências por intermédio das ações do usuário. Utiliza, também, pesos que representarão a satisfação do usuário para os termos extraídos do corpo da mensagem. Esses pesos são associados às ações do usuário para estimar os termos mais interessantes e menos interessantes, pelo valor de suas médias finais. Quando o usuário desejar alterar os filtros de mensagens do Direto, ele solicita ao Assistente de Feedback sugestões para possíveis exclusões dos termos menos interessantes e as possíveis inclusões dos termos mais interessantes. O protótipo é testado utilizando dois métodos de avaliação para medir o grau de precisão e o desempenho do Assistente de Feedback. Os resultados obtidos na avaliação de precisão apresentam valores satisfatórios, considerando o uso de cinco classes pelo classificador do Assistente de Feedback. Os resultados dos testes de desempenho permitem observar que, se forem utilizadas máquinas com configurações mais atualizadas, os usuários conseguirão receber sugestões com tempo de respostas mais toleráveis.
Resumo:
Este trabalho apresenta o LIT, uma ferramenta de auxílio ao projeto de circuitos integrados analógicos que utiliza a técnica da associação trapezoidal de transistores (TAT) sobre uma matriz digital pré-difundida. A principal característica é a conversão de cada transistor simples de um circuito analógico em uma associação TAT equivalente, seguido da síntese automática do leiaute da associação séria-paralela de transistores. A ferramenta é baseada na matriz SOT (sea-of-transistors), cuja arquitetura é voltada para o projeto de circuitos digitais. A matriz é formada somente por transistores unitários de canal curto de dimensões fixas. Através da técnica TAT, entretanto, é possível criar associações série-paralelas cujo comportamento DC aproxima-se dos transistores de dimensões diferentes dos unitários. O LIT é capaz de gerar automaticamente o leiaute da matriz SOT e dos TATs, além de células analógicas básicas, como par diferencial e espelho de corrente, respeitando as regras de casamento de transistores. O cálculo dos TATs equivalentes também é realizado pela ferramenta. Ela permite a interação com o usuário no momento da escolha da melhor associação. Uma lista de possíveis associações é fornecida, cabendo ao projetista escolher a melhor. Além disso, foi incluído na ferramenta um ambiente gráfico para posicionamento das células sobre a matriz e um roteador global automático. Com isso, é possível realizar todo o fluxo de projeto de um circuito analógico com TATs dentro do mesmo ambiente, sem a necessidade de migração para outras ferramentas. Foi realizado também um estudo sobre o cálculo do TAT equivalente, sendo que dois métodos foram implementados: aproximação por resistores lineares (válida para transistores unitários de canal longo) e aproximação pelo modelo analítico da corrente de dreno através do modelo BSIM3. Três diferentes critérios para a escolha da melhor associação foram abordados e discutidos: menor diferença de corrente entre o TAT e o transistor simples, menor número de transistores unitários e menor condutância de saída. Como circuito de teste, foi realizado o projeto com TATs de um amplificador operacional de dois estágios (amplificador Miller) e a sua comparação com o mesmo projeto utilizando transistores full-custom. Os resultados demonstram que se pode obter bons resultados usando esta técnica, principalmente em termos de desempenho em freqüência. A contribuição da ferramenta LIT ao projeto de circuitos analógicos reside na redução do tempo de projeto, sendo que as tarefas mais suscetíveis a erro são automatizadas, como a geração do leiaute da matriz e das células e o roteamento global. O ambiente de projeto, totalmente gráfico, permite que mesmo projetistas analógicos menos experientes realizem projetos com rapidez e qualidade. Além disso, a ferramenta também pode ser usada para fins educacionais, já que as facilidades proporcionadas ajudam na compreensão da metodologia de projeto.
Resumo:
Este trabalho apresenta um estudo, implementação e simulação de geradores de sinais analógicos usando-se circuitos digitais, em forma de CORE, integrando-se este com o microprocessador Risco. As principais características procuradas no gerador de sinais são: facilidade de implementação em silício, programabilidade tanto em freqüência quanto em amplitude, qualidade do sinal e facilidade de integração com um microprocessador genérico. Foi feito um estudo sobre a geração convencional de sinais analógicos, dando-se ênfase em alguns tipos específicos de circuitos como circuitos osciladores sintonizados, multivibradores, geradores de sinais triangulares e síntese de freqüência digital direta. Foi feito também um estudo sobre conversão digital-analógica, onde foram mostrados alguns tipos básicos de conversores D/A. Além disso foram abordadas questões como a precisão desses conversores, tipos digitais de conversores digitalanalógico, circuitos geradores de sinais e as fontes mais comuns de erros na conversão D/A. Dando-se ênfase a um tipo específico de conversor D/A, o qual foi utilizado nesse trabalho, abordou-se a questão da conversão sigma-delta, concentrando-se principalmente no ciclo de formatação de ruído. Dentro desse assunto foram abordados o laço sigma-delta, as estruturas de realimentação do erro, estruturas em cascata, e também o laço quantizador. Foram abordados vários circuitos digitais capazes de gerar sinais analógicos, principalmente senóides. Além de geradores de senóides simples, também se abordou a geração de sinais multi-tom, geração de outros tipos de sinais baseando-se no gerador de senóides e também foi apresentado um gerador de funções. Foram mostradas implementações e resultados dessas. Iniciando-se pelo microprocessador Risco, depois o gerador de sinais, o teste deste, a integração do microprocessador com o gerador de sinais e finalmente a implementação standard-cell do leiaute desse sistema. Por fim foram apresentadas conclusões, comentários e sugestões de trabalhos futuros baseando-se no que foi visto e implementado nesse trabalho.
Resumo:
A integração de aplicações heterogêneas é uma tarefa constante entre empresas do mundo moderno. A grande quantidade de fornecedores de software, aliada à extensa variedade de técnicas e linguagens computacionais utilizadas, fazem desta integração uma tarefa trabalhosa e cara para as organizações. As alternativas existentes para a integração de sistemas de diferentes fornecedores podem variar, desde acesso compartilhado a uma base de dados comum, uso de replicadores de dados entre bases de dados distintas, troca de mensagens entre aplicações, ou o uso de programas exportadores/importadores, gerando arquivos em um formato previamente protocolado entre os desenvolvedores dos softwares envolvidos. Este trabalho visa propor uma alternativa para a integração de sistemas heterogêneos, fazendo uso da tecnologia XML para representar os dados que são trocados entre os aplicativos. Para tanto, sugere um framework a ser utilizado no planejamento da arquitetura dos softwares. O objetivo principal da adoção de um framework é a utilização de uma metodologia previamente desenvolvida e certificada, economizando tempo de análise para a solução de um problema. O framework proposto subtrai dos desenvolvedores a necessidade de alteração do código fonte dos seus programas cada vez que a integração com um novo fornecedor de software se faz necessária, ou que há alteração no formato dos dados trocados entre os aplicativos. Este efeito é conseguido através da utilização de XSLT para a conversão de formatos de documentos XML trocados pelos softwares. Tal conversão é realizada por um processador XSLT externo aos programas envolvidos. Para simplificar o processo, foi desenvolvido o protótipo de uma ferramenta para a geração de templates XSLT. Templates são elementos da especificação XSLT capazes de realizar a transformação entre estruturas representadas em XML. O gerador de templates XSLT é uma ferramenta gráfica capaz de converter mapeamentos realizados entre estruturas XML em templates XSLT, podendo aplicar as transformações geradas a documentos XML, com a finalidade de teste ou transformação.
Resumo:
A linguagem síncrona RS é destinada ao desenvolvimento de sistemas reativos. O presente trabalho tem como objetivo criar meios que facilitem o uso da linguagem RS no projeto e implementação desses sistemas, permitindo que, à partir da especificação de um sistema reativo, seja realizada a sua implementação de forma automática. Deste modo, a linguagem RS é utilizada para a descrição do comportamento de um sistema em um alto nível de abstração, antes de serfeitas a decomposição do sistema em componentes de software ou hardware. A implmentação do protótipo do sistema computacional dedicado é obtida através de uma síntese automática desse modelo de alto nível. Foram implementados geradores de código que utilizam o código objeto fornecido pelo compilador da linguagem RS. Os geradores fazem a tradução para a linguagem C, para a linguagem JAVA, ou para a linguagem de descrição de hardware VHDL. A partir da síntese desses códigos poderá ser obtida a implementação do sistema em um micrcoomputador comercial, em um microcomputador Java de dedicado (ASIP Java), ou em um hardware de aplicação específica (ASIC). Foram realizados estudos de caso representativos dos sistemas reativos embaraçados e de tempo rel. Estes estudos de caso serviram para validar os geradores de código bem como para analisar o uso da linguagem RS no projeto e implementação desses sistemas.
Resumo:
Introdução: A histamina exerce vários efeitos no desempenho cardíaco em humanos, os quais são mediados por receptores H1e H2. A ocorrência de bradicardia e distúrbio da condução atrioventricular tem sido descrita após a injeção intravenosa de cimetidina ou ranitidina, porém ainda não foi avaliado seu potencial efeito na resposta cronotrópica ao exercício com suas implicações sobre o valor prognóstico e diagnóstico do teste de esforço Objetivo: Testar a hipótese, através de ensaio clinico randomizado, de que a administração de cimetidina altera a resposta cronotrópica ao exercício. Material e Métodos: Foram submetidos a dois testes cardiopulmonares, 20 indivíduos, após uso de placebo e de cimetidina. Os testes foram realizados em esteira rolante, com protocolo de rampa com analises diretas dos gases expirados. Foi avaliada freqüência cardíaca máxima atingida, além da freqüência cardíaca de repouso e no limiar anaeróbio. Resultados: Os indivíduos estudados estavam igualmente distribuídos por sexo, com idade média (± desvio padrão) de 43 ±11 anos. Os exames com placebo e com cimetidina tiveram igual duração (578 ± 90 seg vs 603 ± 131 seg) e igual VO2 pico (35 ± 8 ml/Kg.min vs 35 ± 8 ml/Kg.min). A administração de cimetidina não apresentou efeito significativo na freqüência cardíaca de repouso (75 ± 10 vs 74 ± 8 bpm), no pico do esforço (176 ± 12 vs176±11 bpm) e, da mesma forma, também não houve diferença entre as freqüências cardíacas de pico e de repouso (101 ± 14 vs101 ± 13 bpm). Conclusão: A administração de cimetidina por sete dias não altera a resposta cronotrópica ao exercício.
Resumo:
O objetivo desta dissertação é a elaboração de uma técnica da aplicação do formalismo de Autômatos Finitos com Saída (Máquina de Mealy e Máquina de Moore) como um modelo estrutural para a organização de hiperdocumentos instrucionais, em destacar especial, Avaliação e Exercício. Esse objetivo é motivado pela organização e agilização do processo de avaliação proporcionado ao professor e ao aluno. Existem diferentes técnicas de ensino utilizadas na Internet, algumas dessas continuam sendo projetadas com o uso de metodologias tradicionais de desenvolvimento, outras têm a capacidade de modelar de forma integrada e consistente alguns aspectos necessários para uma aplicação WEB. Para alcançar o objetivo proposto, foram realizadas pesquisas nas várias áreas abrangidas pelo tema em evidência, tanto relativo ao processo tradicional (aplicação de prova utilizando metodologia tradicional), como o desenvolvimento de software mediado por computador e uso da Internet em si. A modelagem de desenvolvimento para Internet deve integrar características de técnicas de projeto de sistemas de hipermídia devido à natureza hipertextual da Internet. O uso de hiperdocumento como autômatos com saída está na forma básica de representação de hipertexto, em que cada fragmento de informação é associado a um nodo ou a um link (estado/transições) do grafo. Sendo assim, os arcos direcionados representam relacionamentos entre os nodos ou links, ou seja, uma passagem do nodo origem para o nodo destino. As n-uplas dos autômatos apresentam uma correspondência as estruturas de hiperdocumentos na WEB, seu estado/transição inicial corresponde a sua primeira página e suas transições definidas na função programa, funcionam como ligações lógicas, quando selecionadas durante a navegação do hipertexto. Entretanto, faz-se necessário um levantamento dos modelos de hipertextos e das ferramentas de implementação disponíveis para a Internet, a fim de que seja capaz de suportar as peculiaridades do ambiente. Tudo isso deve ser integrado preferencialmente em um paradigma de desenvolvimento amplamente aceito, para que os projetistas não tenham muitas dificuldades em assimilar os conceitos propostos. A proposta apresentada nesta dissertação, batizada de Hyper-Automaton (hipertexto e autômato), consiste na integração de um Curso na WEB, utilizando formalismo de Autômatos Finitos com Saída para a modelagem dos conceitos necessários e definição das fases adequadas para completar a especificação de Sistema Exercício e Avaliação, bem como a especificação da Geração Automática dos Exercícios e Avaliações baseadas em autômatos para a WEB. Os modelos criados abrangem conceitos de Máquina de Mealy, Máquina de Moore e Aplicações de Hiperdocumentos e Ferramentas de Programação para Internet, os mesmos já testados em caso real. Os parâmetros apurados, nos testes, serviram a uma seqüência de etapas importantes para modelar e complementar a especificação do sistema projetado. Com os parâmetros e etapas de modelagem, a metodologia Hyper-Automaton consegue integrar, de forma consistente, as vantagens de várias técnicas específicas de modelagem de documentos e sistemas de hipermídia. Essas vantagens, aliadas ao suporte às ferramentas de desenvolvimento para Internet, garantem que a metodologia fique adequada para a modelagem de Sistemas com aplicação de métodos de autômatos para exercícios e avaliação na WEB.
Resumo:
O presente trabalho objetiva identificar a influência das privatizações na evolução do sistema de telefonia fixa e móvel celular brasileiro. O estudo foi desenvolvido avaliando-se um período de três anos pré-privatização versus pós-privatização, desconsiderando-se o ano em que ocorreu a troca do controle acionário das companhias. Para a execução do estudo, utilizou-se duas amostras distintas, uma para cada período, que representavam parcelas semelhantes da receita total do mercado para os respectivos períodos antes e pós-privatização. De modo a atingir o objetivo central do trabalho, desenvolveu-se o tema em quatro aspectos: desempenho das empresas de telefonia, qualidade e universalização dos serviços de telefonia, geração de divisas para o governo pelas empresas de telefonia e variação nos preços dos serviços de telefonia fixa. Para operacionalizar a análise, utilizou-se um conjunto de indicadores para cada um dos aspectos abordados e aplicou-se, primeiramente, o teste não-paramétrico de Kolmogorov- Smirnov. Em seguida, constatou-se que a forma de distribuição dos dados, antes desconhecida, atendia aos pressupostos dos testes paramétricos e aplicou-se, também, aos conjuntos de indicadores o teste t de Student de modo a perceber diferenças mais sutis principalmente nos casos em que o primeiro teste não detectou diferenças significativas. A avaliação geral dos resultados tende a rejeitar a hipótese nula de que a privatização das empresas de telefonia não reverteu em ganhos para o Estado e a população em geral. Esta conclusão baseia-se na análise dos quatro conjuntos de indicadores que apresentaram as seguintes evidências: em geral, a maioria dos indicadores de desempenho das empresas sinalizam uma queda em sua performance entre antes e depois das privatizações; a análise dos indicadores de qualidade e universalização dos serviços apresentaram sensível melhora, evidenciando uma evolução em termos de qualidade e de popularização dos serviços de telefonia; os indicadores de geração de divisas para o Estado apresentaram um crescimento no montante absoluto arrecadado, mas sem um aumento significativo na proporção da carga tributária incidente; a análise da evolução dos preços dos serviços de telefonia fixa revela que, considerando-se os efeitos inflacionários, houve uma redução destes preços no período pós-privatização comparando-se com o período pré-privatização.
Resumo:
O aumento na complexidade dos sistemas embarcados, compostos por partes de hardware e software, aliado às pressões do mercado que exige novos produtos em prazos cada vez menores, tem levado projetistas a considerar a possibilidade de construir sistemas a partir da integração de componentes já existentes e previamente validados. Esses componentes podem ter sido desenvolvidos por diferentes equipes ou por terceiros e muitas vezes são projetados utilizando diferentes metodologias, linguagens e/ou níveis de abstração. Essa heterogeneidade torna complexo o processo de integração e validação de componentes, que normalmente é realizado através de simulação. O presente trabalho especifica mecanismos genéricos e extensíveis que oferecem suporte à cooperação entre componentes heterogêneos em um ambiente de simulação distribuída, sem impor padrões proprietários para formatos de dados e para a descrição do comportamento e interface dos componentes. Esses mecanismos são baseados na arquitetura DCB (Distributed Co-Simulation Backbone), voltada para co-simulação distribuída e heterogênea e inspirada nos conceitos de federado (componente de simulação) e federação (conjunto de componentes) que são definidos pelo HLA (High Level Architecture), um padrão de interoperabilidade para simulações distribuídas. Para dar suporte à co-simulação distribuída e heterogênea, esse trabalho descreve mecanismos que são responsáveis pelas tarefas de cooperação e distribuição, chamados de embaixadores, assim como o mecanismo gateway, que é responsável pela interoperabilidade entre linguagens e conversão de tipos de dados. Também é apresentada uma ferramenta de suporte à geração das interfaces de co-simulação, que são constituídas de dois embaixadores configuráveis e um gateway para cada federado, gerado a partir de templates pré-definidos.
Resumo:
O aumento da escala e funcionalidade dos sistemas de computação e sua crescente complexidade envolvem um aumento significante de custos e exigem recursos humanos altamente qualificados para o desenvolvimento de software. Integrando-se o uso de métodos formais ao desenvolvimento de sistemas complexos, permite-se realizar análises e verificações destes sistemas, garantindo assim sua correção. Existem diversos formalismos que permitem descrever sistemas, cada qual com diferentes níveis de abstração. Quando consideramos sistemas complexos, surge a necessidade de um modelo que forneça construções abstratas que facilitem o entendimento e a especificação destes sistemas. Um modelo baseado em objetos fornece um nível de abstração que tem sido muito aplicado na prática, onde os dados e os processos que os manipulam são descritos juntos em um objeto. Gramática de Grafos Baseada em Objetos (GGBO) é um modelo baseado em objetos, que além de ser uma linguagem visual, apresenta a vantagem de as especificações adquirirem um estilo baseado em objetos, que é bastante familiar à maioria dos desenvolvedores. Porém, as GGBOs não possuem ainda ferramentas para verificação automática de propriedades desejadas nos sistemas modelados. Uma alternativa para resolver isso é definir uma tradução (que preserve a semântica) desta linguagem para outra, para a qual existam verificadores automáticos. Um formalismo bastante conhecido e estabelecido para descrição de sistemas concorrentes, para o qual existem verificadores automáticos, é o cálculo-π. Porém, sob o aspecto de especificação de sistemas complexos, GGBOs parecem ser mais adequadas como linguagem de especificação que o cálculo-π, pois são visuais, mais intuitivas e possuem um estilo baseado em objetos. Neste trabalho foi definido um formalismo (baseado nas GGBOs), denominado Gramática de Hipergrafos Baseada em Objetos e uma tradução deste formalismo para o cálculo-π, aliando assim as vantagens desses dois métodos. Além disso, para validar a tradução definida, foram feitas provas de que a semântica das gramáticas de hipergrafos baseadas em objetos é preservada na tradução.
Resumo:
Objetivo: Avaliar a correlação do volume de pulmão com densidade anormal através da Densitovolumetria (DV) com características clínicas e testes de função pulmonar em crianças com Bronquiolite Obliterante (BO). Métodos: Realizou-se um estudo transversal em 19 crianças, com idade entre 7 e 15 anos, com diagnóstico clínico-evolutivo e tomografia de tórax característicos de BO. Foram excluídas ou-tras doenças que cursam com obstrução ao fluxo aéreo. Todas as crianças fizeram o Teste da cami-nhada de seis minutos com monitorização da saturação de oxigênio da hemoglobina. A espirometria foi feita em repouso, após o Teste da caminhada e após a administração de broncodilatador. A Den-sitovolumetria foi realizada em um tomógrafo computadorizado helicoidal de pista simples, marca Toshiba, modelo Xvision EX, com pós-processamento de imagem em estação de trabalho O2 da Si-licon Graphics, com programa de computação Alatoview®. Cada paciente foi submetido a 9 aquisi-ções tomográficas eqüidistantes de alta resolução e a duas varreduras helicoidais, cobrindo toda a extensão do tórax em pausa da respiração no final da inspiração e expiração profundas. Para separar parênquima normal de parênquima com diminuição de atenuação utilizou-se o limiar -950 UH e um outro limiar escolhido de forma subjetiva pelo radiologista Resultados: O volume de parênquima pulmonar com densidade anormalmente baixa na inspiração variou de 0,03 a 8,67 % e, na expiração, de zero a 7,27% do volume pulmonar total. O volume de pulmão hipoatenuado teve boa correlação com os testes de função pulmonar; na inspiração com VEF1% (r= -0,56) e com VEF1/CVF%(r= -0,75). O percentual de zonas hipoatenuadas na inspiração apresentou correlação com VEF1%(r= -0,64) e com VEF1/CVF%(r= -0,71). Na expiração, houve correlação com VEF1% (r= -0,50) e não houve com o VEF1/CVF%. Na comparação com o previsto em adultos, a correlação foi melhor na inspiração. A saturação de oxigênio em repouso não apresentou associação com o volume de áreas hipoatenuadas, enquanto que a saturação mínima durante o exercício apresentou correlação negativa forte com o volume de zonas com hipoatenuação na inspiração (r= -0,60) e na expiração (r= -0,61). Os pacientes com volumes pulmonares maiores percorreram uma distância maior (r=0,53), e a distância percorrida não foi afetada significativamente pelo volume de áreas hipoatenuadas. Conclusão: Em crianças com BO, o volume de zonas hipoatenuadas correlaciona-se com o VEF1% e VEF1/CVF% e com a queda na saturação durante o exercício, mas não se correlaciona com a saturação em repouso e a distância percorrida.
Resumo:
A avaliação psicológica, incluindo a aplicação de testes, foi uma das primeiras tarefas do psicólogo e até hoje é uma atividade de uso restrito desse profissional. Muitos testes já foram criados e alguns, por terem mostrado sua utilidade na avaliação psicológica, foram revisados. Entretanto, na área da avaliação da personalidade e, em especial, para os instrumentos projetivos, não se investiu muito em termos de revisão. Os testes voltados para crianças foram ainda menos privilegiados.Um dos poucos recursos projetivos construídos especificamente para esse tipo de público e recentemente adaptado para utilização com a população brasileira foram as Fábulas de Düss, nomeado no Brasil como Teste das Fábulas. A adaptação para a realidade brasileira é recente e foi realizada com crianças em desenvolvimento normal. Entretanto, estudos com populações especiais, como, por exemplo, crianças institucionalizadas, são limitados. Pensando nessas crianças, nos profissionais que trabalham com elas e na escassez de instrumentos que auxiliem em um melhor entendimento da realidade do seu desenvolvimento, torna-se necessária a realização de estudos para a utilização de testes com essa população. Frente a isto, esta pesquisa avaliou as respostas dadas ao Teste das Fábulas por crianças que residem em instituições, levando em consideração as variáveis sexo, faixa etária e tempo de abrigamento. A amostra foi composta de 62 crianças, com idades entre 4 anos e 9 meses e 11 anos e 8 meses, residentes em abrigos das cidades de Porto Alegre e Canoas, por um período mínimo de 6 meses. Os instrumentos utilizados foram um questionário sócio-demográfico, o teste das Matrizes Progressivas Coloridas de Raven (versão tabuleiro) e o Teste das Fábulas. Os resultados demonstraram que as crianças que residem em abrigos, de um modo geral, respondem de forma diferente ao Teste das Fábulas do que as crianças com desenvolvimento considerado normal. Estes respostas remeteram à conflitiva da própria situação de abandono vivenciada. As maiores diferenças encontradas foram em relação a faixa etária, sendo que as variáveis tempo de abrigamento e sexo exerceram pouca influência. As crianças mais novas apresentaram respostas que indicaram o abandono como uma forma de agressão, enquanto as mais velhas atribuíram a si a culpa por tal acontecimento. Foram verificadas também diferenças entre as fantasias, estados emocionais e mecanismos de defesa quando comparadas as diferentes faixas etárias, assim como foram encontradas novas categorias desses itens nas respostas da amostra total.
Resumo:
O presente trabalho apresenta estudos sistemãticos da caracterização do carvão de Candiota em termos do seu beneficiamento. O carvão de Candiota possui caracteristicas de moabilidade que o indicam como bastantefriável. A geração de finos (-28 malhas) atinge valores superiores a 20% independente do grau de britagem . As distribuições granulométricas resultantes da britagem do carvão obedecem a equação de ROSIN-RAIIMLER-BENNETT, dentro do intervalo previsto (frações menores do ue -4 malhas e maiores do que 100 malhas). Os valores de n e d ' não variam significativamente com a abertura do britador o, que evidencia sua friabiliade. foram estabelecidas equações que relacionam aberturado britador, coeficientes de distribuição e diâmetro médio.Estudos rni croscópicos demonstraram que, o grau de d i-s seminação da matéria inorgânica é muitointenso , e sua liberação atinge malhas muito pequenas (provavelmente menores do que 400 malhas). O teor de cinzas, como por exemplo do grau de disseminação, não variou significativamente com a diminuição de tamanho, como acontece com outros carvões. Foram estabelecidos dois critérios de liberação das particulas em função da quantidade de matéria carbonosa presente nas unidades mistas (20 - 80% e 5 - 95%, respectivamente). Estes indices de partyculas mistas (5 - 95% de matéria carbonosa) mantiveram-se constantes até tamanhos aproximados de 115 malhas, para logo diminuirem nas frações menores. Ainda assim, para frações menores do que 53 micrômetro a quantidade de mistos ( 5 - 95%) foi de 34%. As curvas de lavabilidade deste carvão (tanto da fração grossa quanto afina), reflexo das caracteristicas anteriores, indicam-no como de muito dificil beneficiamento (lavagem). Isto basicamente é devido ao alto grau de "near gravity matterial" presente e de seu grau de liberação. 0s testes de jigagem por bateladas, bem como outros processos de beneficiamento, demonstraram a dificuldade do beneficiamento deste carvão. O melhor teste de jigagem por bateladas, obteve uma recuperação de materia carbonosa de 73, 21 com um teor de cinzas de 45,51 no concretado (alimentação contendo 50% de cinzas). de 37,59% de cinzas (alimentação de 50% de cinzas). Propõe-se, finalmente, um circuito de beneficiamento convencional do carvão de Candiota, incluindo uma classificação do carvão ROM com o objetivo de separar a alimentação em duas frações (+28 e -28 malhas), seguido de um processo de beneficiamento das frações grosseiras por meios densos (tanques), e um tratamento das frações finas por hidrociclonagem. Os resultados obtidos concluem que o carvão de Candiota é o mais dificil de ser lavado dentre os carvões sul-brasileiros devido ao alto teor de cinzas e ao grau de disseminação, sendo que este teor de cinzas não varia muito com a granulometria, o que implica em um grau de liberação muito baixo. Sugere- se como outra alternativa no seu beneficiamento, o estudo de processos não convencionais que incluem um alto grau de cominuiçáo ate completa liberação.
Resumo:
O objetivo deste estudo foi avaliar e comparar in vitro o desempenho dos fotoativadores Apollo® 95E /DenMed Technologies, com luz xênon (arco de plasma - PAC), e o Curing Light® XL 3000 /3M-Unitek, com luz halógena (convencional - QTH), comparando-se, desta forma, um fotoativador de alta intensidade de luz (PAC) com um convencional (QTH). A efetividade dos aparelhos foi verificada pelo grau de polimerização apresentado pela resina composta (Transbond™XT/3MUnitek), avaliado em espectrofotometria por infravermelho e pela análise de microdureza Knoop. Os tempos de ativação para a fonte PAC foram um, dois e três segundos e, para a fonte QTH, foram 10, 20 e 30 segundos, buscando-se avaliar a equivalência, ou não, dos diferentes tempos das diferentes unidades fotoativadoras. Foram usadas matrizes metálicas circulares, que receberam a resina para posterior polimerização. Para cada tempo de ativação, para cada aparelho e para cada teste, foi fotoativada a resina composta de cinco corpos-de-prova. Foi avaliada, também, a temperatura no extremo distal do condutor de luz de cada aparelho, nos seus respectivos tempos predeterminados, colocando-se justaposto, à ponta do fotoativador, o sensor do dispositivo de aferição Sekundenthermometer/GTH 1160 – Phywe. Os resultados obtidos foram submetidos ao teste não-paramétrico Kolmogorov-Smirnov, à Análise de Variância (ANOVA) e ao teste de comparações múltiplas de Tukey. Os resultados da espectrofotometria apontaram diferença estatística significativa entre os grupos estudados. O grupo QTH alcançou as maiores médias e diferiu do grupo PAC (p=0,01). O ensaio de microdureza Knoop também apresentou resultados que apontaram a existência de diferença estatística significativa entre os grupos estudados, tendo o grupo QTH alcançado as maiores médias (p=0,01). A avaliação da temperatura igualmente apresentou diferença estatística significativa entre os grupos estudados (p=0,01), sendo que o grupo QTH atingiu as maiores médias. Com base na metodologia empregada e na análise dos dados obtidos no presente estudo, pode-se concluir que o grau de polimerização da resina composta e a temperatura no extremo distal do condutor de luz apresentaram diferença estatística significativa com o uso das unidades fotoativadoras Apollo® 95E (xênon) e Curing Light® XL 3000 (halógena) nos respectivos tempos predeterminados (p=0,01), ficando sempre, com as maiores médias, o aparelho convencional com luz halógena.