971 resultados para Adsorção Métodos de simulação


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Agressão de nefastos efeitos, o abuso sexual infantil â ASI - tem acompanhado a humanidade, independentemente do poderio econômico, cultura, raça ou credo, sendo que a aparente evolução da civilização não tem apresentado como corolário sua diminuição. A missão de enfrentar esta complexa realidade foi incumbida ao Poder Judiciário e órgãos afins. Apesar dos avanços das normas concernentes à tutela dos direitos das crianças e adolescentes, na prática pouco se tem feito para sua efetivação, focando-se apenas na punição do agressor, em razão da ausência de normas instrumentais específicas e de clareza na definição e compreensão do que constitui delito de natureza sexual, ensejando a chamada violência institucional. Evidência disso são os métodos alternativos implementados aleatoriamente pelo país, elaborados pelos atores envolvidos no atendimento institucional de vítimas de ASI e seus familiares, notadamente o Depoimento Sem Dano, formatado para a inquirição de crianças e adolescentes em Juízo, com intermédio de profissional habilitado, e previsão de gravação, para posterior análise no processo. Dentre as experiências, o Depoimento Sem Dano tem se destacado, suscitando reconhecimento e questionamentos, atualmente incluso em projeto de lei no Senado. Não é de hoje a tentativa de normatização dessa prática instituída no Rio Grande do Sul e objeto de projetos pilotos em alguns outros Estados, esbarrando em questões controversas, fazendo-se essencial uma análise crítica do método. Por envolver tal método, como a grande maioria das experiências alternativas realizadas no atendimento dos casos de ASI, a interdisciplinaridade, principalmente entre Direito e Psicologia, de relevo um estudo de como deve ocorrer este imbricamento no âmbito forense. Por fim, a par do Depoimento Sem Dano, dentre vários projetos, pinçaram-se três para breve estudo, quais sejam, o projeto Mãos que Acolhem â transposição do método Depoimento sem Dano para a Delegacia de Polícia, os Centros de Defesa da Criança â CACs, locais em que se centralizam todo tipo de atendimento às crianças e adolescentes vítimas de abuso sexual, e a Unificação das Competências das Varas da Infância e Juventude e Crimes contra Crianças e Adolescentes, para que os casos sejam decididos de forma coesa e eficaz. Tais projetos refletem o esforço dos atores envolvidos na humanização da Justiça, especialmente em relação àqueles que mais dela necessitam, as crianças e adolescentes.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Na simulação heterogênea de um sistema eletrônico complexo, um mesmo modelo pode ser composto por partes distintas em relação às tecnologias ou linguagens utilizadas na sua descrição, níveis de abstração, ou pela combinação de partes de software e de hardware (escopo da co-simulação). No uso de modelos heterogêneos, a construção de uma ponte eficaz entre diferentes simuladores, em conjunto com a solução de problemas tais como sincronização e tradução de dados, são alguns dos principais desafios. No contexto do projeto de sistemas embarcados, a validação desses sistemas via co-simulação está sujeita a estes desafios na medida em que um mesmo modelo de representação precisa suportar a cooperação consistente entre partes de hardware e de software. Estes problemas tornam-se mais significativos quando abordados em ambientes distribuídos, o que aumenta a complexidade dos mecanismos que gerenciam os ítens necessários à correta cooperação entre partes diferentes. Contudo, embora existam abordagens e ferramentas voltadas para o tratamento de modelos heterogêneos, inclusive em ambientes distribuídos, ainda persiste uma gama de limitações causadas pela distribuição e heterogeneidade de simuladores. Por exemplo, restrições quanto à variedade de tecnologias (ou linguagens) utilizadas na descrição das partes de um modelo, flexibilidade para o reuso de partes existentes, ou em tarefas de gerenciamento de sincronização/dados/interface/distribuição. Além disso, em geral, nas soluções existentes para simulação heterogênea, alterações são necessárias sobre as partes do modelo, limitando a preservação de sua integridade. Esta é uma característica indesejável, por exemplo, no reuso de componentes IP (Intellectual Property) Neste contexto, esta tese apresenta o DCB (Distributed Co-simulation Backbone), cujo propósito geral é o suporte à execução distribuída dos modelos heterogêneos. Para isso, são observados de modo integrado quatro fatores básicos: a distribuição física; a independência dos componentes (partes); o encapsulamento das estratégias de gerenciamento de tempo, de dados e de comunicação; e a sincronização híbrida. Em geral, as soluções existentes valorizam um fator em detrimento dos demais, dependendo dos propósitos envolvidos e sua variação em relação ao grau de especificidade (soluções proprietárias ou restritas a um escopo de aplicações). O Tangram, também discutido nesta tese em termos de requisitos, é uma proposta de ambiente para projeto de modelos heterogêneos distribuídos. No contexto da especificação do DCB, esta proposta tem como objetivo geral agregar num mesmo ambiente funcionalidades de apoio para a busca e catalogação de componentes, seguidas do suporte à construção e à execução distribuída de modelos heterogêneos via DCB. à luz dos princípios de generalidade e flexibilidade da arquitetura do DCB, o Tangram visa permitir que o projetista reduza seu envolvimento com detalhes relacionados ao provimento de condições necessárias à cooperação entre componentes heterogêneos. No escopo desta tese, ênfase foi dada à co-simulação de sistemas embarcados, ênfase esta observada também na construção do protótipo do Tangram/DCB, e nos estudos de caso. Contudo, a estrutura do DCB é apropriada para qualquer domínio onde a simulação possa ser utilizada como instrumento de validação, entre outros propósitos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A simulação, como ferramenta de suporte à tomada de decisão, tem sido utilizada nas mais variadas áreas do conhecimento e especialmente no projeto e dimensionamento de plantas de produção. Em geral, os simuladores para sistemas de produção consideram variáveis relativas à quantidade, tipo e disposição física de máquinas, quantidades dos estoques intermediários, e aos tempos de produção sem, no entanto, considerar os tempos reais do trabalho do ser humano envolvido no processo, apesar de a mão de obra humana ser largamente empregada nestes sistemas, afetando diretamente a sua produtividade. Uma das possíveis razões disto é a complexidade dos fatores que influenciam na produtividade do ser humano, que varia em função de fatores ambientais, fisiológicos, psicológicos ou sociais. Normalmente, os sistemas de simulação da produção representam o trabalhador humano da mesma forma como representam uma máquina, uma ferramenta ou um equipamento, cuja previsibilidade é bem maior. Esta dissertação avalia a questão humana em um simulador bastante utilizado comercialmente, e evidenciou que os fatores ergonômicos são capazes de alterar significativamente os resultados de uma simulação, justificando o desenvolvimento de rotinas computacionais capazes de representar o elemento humano e suas interações com o sistema, de forma mais fidedigna.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho teve como objetivo estudar a composição química das flores de Hibiscus tiliaceus L usando diferentes técnicas de extração. Os métodos de extração usados foram maceração, Soxhlet, ultra-som, extração com fluido supercrítico e extração com líquido pressurizado. Foram investigadas as variáveis que podem influenciar no processo de extração tais como temperatura, pressão, polaridade do solvente, tempo de extração e massa de amostra, entre outras. A identificação dos compostos foi realizada por cromatografia gasosa acoplada com detector de espectrometria de massas. Os métodos de extração utilizados mostraram-se eficientes para a obtenção dos extratos, com algumas diferenças qualitativas. Quantitativamente, os compostos majoritários, em todas as técnicas de extração usadas, foram ácidos carboxílicos (C16 e C18), hidrocarbonetos com número ímpar de carbonos (C27, C29 e C31) e fitosteróis. Entre os métodos de extração que utilizam solventes orgânicos, a extração com líquido pressurizado apresentou maior rendimento em massa de extrato e maior concentração de alguns dos compostos presentes nas flores de Hibiscus tiliaceus L., com as vantagens de redução de solventes e do tempo de extração. A variável que se mostrou mais importante nos procedimentos de extração foi a polaridade do solvente. A composição química das flores Hibiscus tiliaceus L apresentou além dos compostos citados, álcoois, aldeídos e vitamina E. A determinação do potencial antioxidante da planta, utilizando o método por quimiluminescência, permitiu encontrar valores para TAR e TRAP superiores ao trolox, utilizado como padrão, indicando a presença de antioxidantes nos extratos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem como objetivo estudar e avaliar técnicas para a aceleração de algoritmos de análise de timing funcional (FTA - Functional Timing Analysis) baseados em geração automática de testes (ATPG â Automatic Test Generation). Para tanto, são abordados três algoritmos conhecidos : algoritmo-D, o PODEM e o FAN. Após a análise dos algoritmos e o estudo de algumas técnicas de aceleração, é proposto o algoritmo DETA (Delay Enumeration-Based Timing Analysis) que determina o atraso crítico de circuitos que contêm portas complexas. O DETA está definido como um algoritmo baseado em ATPG com sensibilização concorrente de caminhos. Na implementação do algoritmo, foi possível validar o modelo de computação de atrasos para circuitos que contêm portas complexas utilizando a abordagem de macro-expansão implícita. Além disso, alguns resultados parciais demonstram que, para alguns circuitos, o DETA apresenta uma pequena dependência do número de entradas quando comparado com a dependência no procedimento de simulação. Desta forma, é possível evitar uma pesquisa extensa antes de se encontrar o teste e assim, obter sucesso na aplicação de métodos para aceleração do algoritmo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A dinâmica de propagação da ruptura durante terremotos é um dos assuntos mais relevantes e complexos em Sismologia. Um critério constitutivo para a falha que descreva corretamente a relação das variáveis estáticas (tensões normais e tangenciais) com as variáveis cinéticas (deslocamentos e velocidades) na interface é necessário para efetuar uma análise dinâmica confiável. A fim de determinar um critério constitutivo para o deslizamento com atrito ao longo da falha sísmica, primeiramente apresentam-se métodos para caracterizar as superfícies deslizantes e discutem-se os principais critérios constitutivos que têm sido usados. Também são apresentados os resultados de um estudo experimental realizado, evidenciando, para sólidos metálicos em contato, uma lei constitutiva de variação do atrito com a velocidade. Um modelo numérico tridimensional baseado no Método dos Elementos Discretos (DEM) é usado para representar a região de rocha adjacente à falha. O modelo consiste de uma estrutura tridimensional periódica com massas concentradas nos nós, interconectadas por elementos visco-elásticos unidimensionais. Inicialmente, de acordo com modelos usuais em Sismologia, admite-se que o material é elástico, linear e homogêneo. Em uma segunda análise, a influência da não-homogeneidade do material é avaliada considerando que a massa específica, o módulo de Young e o coeficiente de atrito são campos aleatórios Gaussianos correlacionados. Na análise seguinte, o efeito da fratura na região de rocha adjacente à falha é também numericamente avaliado. Por fim, a influência de ruptura de micro-asperezas nas superfícies deslizantes é analisada. Através de simulação de Monte Carlo, as relações constitutivas macro (ou globais) para a falha são obtidas, admitindo como leis constitutivas micro (ou locais) os dois critérios mais usados em Sismologia: a lei de variação do atrito com a velocidade e a lei de variação do atrito com o deslizamento. Quando os blocos de rocha são admitidos serem elásticos e homogêneos não há um efeito de escala. Novamente, quando a rocha é considerada não-homogênea não há um efeito de escala significativo, apenas pequenas variações nos parâmetros das leis constitutivas macro em relação às leis micro são percebidas, exceto pela influência do campo aleatório do coeficiente de atrito, o qual apresenta um efeito de escala perceptível. A ocorrência de fratura nas proximidades da falha não causa modificações significativas nas leis constitutivas macro, apenas causa algumas oscilações em torno da lei sem fratura. Finalmente, obtém-se um critério constitutivo macro que leva em consideração a ruptura por cisalhamento das micro-asperezas nas superfícies deslizantes. O modelo é chamado lei modificada de variação do atrito com a velocidade e é considerado um critério constitutivo mais geral.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Métodos de preparo e sistemas de culturas podem afetar os atributos químicos do solo e, conseqüentemente, sua fertilidade. Com o objetivo de avaliar os efeitos destas práticas, foram analisadas amostras de solo coletadas de seis camadas (0-2,5, 2,5-5, 5-7,5, 7,5-12,5, 12,5-17,5 e 17,5-30 cm), no 13º ano de experimento de longa duração, instalado em 1985, em um Argissolo Vermelho distrófico, localizado na Estação Experimental Agronômica da UFRGS, em Eldorado do Sul, RS. O experimento constitui-se de três métodos de preparo (convencional-PC, reduzido-PR e plantio direto-PD), três sistemas de culturas (aveia/milho-A/M, vica/milho-V/M e aveia+vica/ milho+caupi-A+V/M+C) e duas doses de N mineral no milho (0 kg N ha-1 ano-1 e 180 kg N ha-1 ano-1 na forma de uréia). Houve aumento no estoque de carbono orgânico (CO) do solo no PD e PR quando associados com sistemas de culturas com maior aporte de resíduos vegetais ao solo. Os métodos de preparo sem revolvimento do solo apresentaram maior valor de CTC efetiva e a pH 7,0, em concordância com o teor de CO. Maiores teores de Ca, Mg e P foram determinados na camada superficial do solo (0-5 cm) em PD e PR, enquanto o solo em PC apresentou distribuição homogênea destes atributos na camada arável (0-17,5 cm). Sistemas de culturas que incluíram leguminosas, principalmente o sistema V/M, apresentaram menor valor de pH e maiores valores de Al trocável e saturação por alumínio. Em média, tratamentos com aplicação de N mineral apresentaram menores valores de pH e de saturação por bases e aumento da saturação por alumínio.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introdução - A forma tradicional para se estudar a variação espacial de taxas é feita considerando a contagem do número de pessoas em cada área de um mapa em relação à população exposta, denominada taxa bruta. Entretanto, essa representação nem sempre é a melhor, principalmente na presença de população pequena. Objetivos - Utilizar métodos de Epidemiologia Espacial para representar a taxa de fecundidade específica em mulheres de 10 a 19 anos, utilizando como exemplo a cidade de Porto Alegre no ano de 2003 e investigar sua distribuição geográfica por meio de técnicas de Mapeamento de Eventos de Saúde. Métodos - Utilizando-se a base de dados do SINASC e o Censo do IBGE para o ano de 2000, considerando-se as divisões de bairro da cidade de Porto Alegre, construiu-se a taxa de fecundidade específica na adolescência. Métodos de suavização para controlar as flutuações aleatórias do risco foram usados, como o Estimador Bayesiano Empírico Local de Marshall e o Estimador Totalmente Bayesiano. Resultados - No ano de 2003 ocorreram 28 nascidos vivos por mil mulheres de 10 a 19 anos na cidade. Em alguns bairros, a representação bruta revelou valores quase três vezes maiores. Com os métodos de suavização, apresenta-se uma distribuição espacial subjacente mais real e taxas com menor heterogeneidade espacial. Alguns bairros com maiores taxas de maternidade na adolescência encontram-se em regiões com piores condições sócio-econômicas. Conclusões - O método Totalmente Bayesiano mostrou ser o melhor para estimar a variabilidade da taxa de fecundidade específica em mulheres de 10 a 19 anos nos bairros de Porto Alegre, principalmente nos locais onde a população exposta era muito pequena.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os métodos radiométricos (Rb-Sr e Sm-Nd) têm sido aplicados, com sucesso, em rochas sedimentares visando a obtenção de idades deposicionais e informações sobre proveniência. Em muitos casos, apesar dos resultados geologicamente significativos, ainda persistem dúvidas em relação a extensão e interpretação dos dados obtidos. Isto ocorre porque as rochas sedimentares resultam da mistura de fragmentos detríticos de diversas proveniências com diferentes sistemas isotópicos, conseqüentemente, já contendo um registro isotópico da rocha fonte. No caso do método Rb-Sr, aplicado em rochas sedimentares de granulometria fina, pode-se obter idades absolutas para o evento deposicional. Isto é viável desde que este registro isotópico proveniente das rochas fonte seja apagado no momento da deposição, ou seja, deve ocorrer a homogeneização isotópica do Sr no ambiente sedimentar. Para tanto, devem ser observados alguns pré-requisitos em relação a amostragem, granulometria, ambiente deposicional e composição mineralógica das amostras, entre outros. No entanto, ainda existem questionamentos em relação a esta metodologia especialmente quanto à ocorrência e à extensão do processo de homogeneização isotópica do Sr em ambiente sedimentar.(Continua0 O método Sm-Nd, apesar de ser uma técnica relativamente nova quando aplicada a rochas sedimentares, tem se tornado uma ferramenta fundamental para auxílio na determinação de proveniência de rochas sedimentares. As maiores dificuldades estão na correta interpretação dos valores obtidos e sua associação com um ambiente sedimentar, ou seja, de baixa temperatura. Neste trabalho, foram aplicados os métodos radiométricos Rb-Sr e Sm-Nd em amostras de rochas sedimentares coletadas em diferentes contextos geológicos da Bacia do Paraná. Foram tentativamente testados os diferentes parâmetros que atuam no sentido da homogeneização isotópica do Sr e do comportamento do Nd. Os resultados obtidos permitiram aprimorar a metodologia radiométrica Rb-Sr e Sm-Nd quando aplicada em rochas sedimentares, bem como obter resultados sobre a idade deposicional de diferentes unidades sedimentares e, por vezes, sua proveniência.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho utilizamos inicialmente as descrições dos possíveis modelos mentais construídos por estudantes de Física Geral na área de Mecânica Clássica, segundo a perspectiva teórica de Philip N. Johnson-Laird (1983), pesquisadas por Lagreca (1997 e 1999). A partir destas descrições, estendemos seus resultados de acordo com uma revisão da literatura, procurando a formação de possíveis modelos simuláveis computacionalmente. O Qsim (Kuipers, 1994) foi o algoritmo de simulação escolhido para o nosso trabalho, devido à semelhança com pesquisas analíticas encontradas sobre o pensamento dos estudantes. Para a simulação, implementamos dois modelos. O modelo newtoniano utiliza noções semelhantes às idéias de Newton, pelo menos com as forças de contato e o atrito com dependência direta com a velocidade. O modelo do impetus possui a concepção de força proporcional à velocidade com o atrito constante. Neste último caso não foi possível a construção de simulações a partir de um atrito dependente da velocidade, devido ao reconhecimento do programa de apenas uma única função crescente. Além disso, simulamos três modelos provenientes do modelo do impetus quando a situação envolve queda na presença da força gravitacional Para a simulação dos modelos, selecionamos alguns problemas para estudo. Iniciamos com o estudo do movimento horizontal e, em seguida, os problemas do páraquedista, do penhasco e do movimento balístico. Comparamos os resultados com algumas concepções dos estudantes encontradas em pesquisas analítico-qualitativas, mostrando que muitas concepções surgiam naturalmente da manipulação dos modelos nos problemas. Isto sugere que a abordagem dos modelos mentais seja mais ampla que a das concepções alternativas e que muitas dessas concepções possam ser reflexos da manipulação dos modelos em algumas situações.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No início dos anos 90, o Brasil e a Grã-Bretanha, juntos, deram um passo, no sentido de produzir estudos microclimáticos dentro da área que compreende a floresta Amazônica, visando quantificar e verificar o impacto do desmatamento dessa floresta sobre o clima. Para isso escolheu-se três regiões para a instalação de estações meteorológicas automáticas de superfície (Estados do Amazonas, Pará e Rondônia). Cada região recebeu uma estação em uma área florestada e outra em área desmatada. Esse projeto binacional foi chamado de "ESTUDO ANGLO-BRASILEIRO DE OBSERVAÃÃO DO CLIMA DA AMAZONIA, (ABRACOS - Anglo-Braz11ian Amazonian Climate Observation Study)". Esse trabalho apresenta a aplicação de dois métodos de controle de qualidade para os dados coletados pelas estações meteorológicas automáticas de superfície. Um desses métodos leva em consideração o comportamento estatístico das variáveis coletadas, e o outro método o comportamento físico e climatológico das mesmas. Por último se faz o uso desses dados com e sem erros no cálculo da evapotranspiração, no sentido de se ver o impacto de uma informação errônea no cálculo de um parametro. O método estatístico demonstrou ter um bom potencial na detecção de erros pequenos (com tamanhos variando de 5 a 20%).(Continua). Esse método apresentou rendimentos na obtenção de erros que oscilam entre 43% e 80% para a radiação solar global. Quando se testou os valores da temperatura do ar e temperatura do bulbo úmido, obteve-se um dos melhores rendimentos do método estatístico, que chegou a 91%. Os piores desempenhos foram quando se testou a radiação refletida, alcançando-se apenas 11,1%. O método físico mostrou-se eficiente na detecção de erros maiores (30 a 90%). Os melhores desempenhos aconteceram quando se testaram as temperaturas. Em um caso o rendimento chegou a 100%. Em seu pior desempenho o método detectou apenas 20% (Teste" A" ). O método físico somente detectou informações suspeitas, dentro dos erros inseridos nas séries de dados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os recentes avanços na tecnologia de sensores tem disponibilizado imagens em alta dimensionalidade para fins de sensoriamento Remoto. Análise e interpretação dos dados provenientes desta nova geração de sensores apresenta novas possibilidades e também novos desafios. Neste contexto,um dos maiores desafios consiste na estimação dos parâmetros em um classificador estatístico utilizando-se um número limitado de amostras de treinamento.Neste estudo,propõe-se uma nova metodologia de extração de feições para a redução da dimensionalidadedos dados em imagens hiperespectrais. Essa metodologia proposta é de fácil implementação e também eficiente do ponto de vista computacional.A hipótese básica consiste em assumir que a curva de resposta espectral do pixel, definida no espaço espectral, pelos contadores digitais (CD's) das bandas espectrais disponíveis, pode ser substituída por um número menor de estatísticas, descrevendo as principais característicasda resposta espectral dos pixels. Espera-se que este procedimento possa ser realizado sem uma perda significativa de informação. Os CD's em cada banda espectral são utilizados para o cálculo de um número reduzido de estatísticas que os substituirão no classificador. Propõe-se que toda a curva seja particionada em segmentos, cada segmento sendo então representado pela respectiva média e variância dos CD's. Propõem-se três algoritmos para segmentação da curva de resposta espectral dos pixels. O primeiro utiliza um procedimento muito simples. Utilizam-se segmentos de comprimento constante, isto é, não se faz nenhuma tentativa para ajustar o comprimento de cada segmento às características da curva espectral considerada. Os outros dois implementam um método que permite comprimentos variáveis para cada segmento,onde o comprimentodos segmentos ao longo da curva de resposta espectral é ajustado seqüencialmente.Um inconveniente neste procedimento está ligado ao fato de que uma vez selecionadauma partição, esta não pode ser alterada, tornando os algoritmos sub-ótimos. Realizam-se experimentos com um classificador paramétrico utilizando-se uma imagem do sensor AVIRIS. Obtiveram-se resultados animadores em termos de acurácia da classificação,sugerindo a eficácia dos algoritmos propostos.