995 resultados para Implementação eletrônica
Resumo:
Esse trabalho se desenvolve a partir da identificação de uma trama de atores, discursos e jogos de poder no cenário brasileiro contemporâneo, na constituição de uma nova categoria social para as politicas públicas brasileiras, os adolescentes LGBT. O processo de construção desse adolescente LGBT está articulado a um processo mais amplo de constituição dessa nova população denominada LGBT, como sujeitos de direitos especiais para o conjunto de atores que configuram o Estado brasileiro na sua multiplicidade e contradições. A construção dessa nova categoria social se dá a partir do entrecruzamento de vários atores e múltiplas concepções e moralidades em relação à sexualidade e ao gênero, articuladas a questões ligadas à forma como os jovens são vistos e tratados pelo mundo adulto. O trabalho discute como diferentes atores ligados à formulação e implementação de políticas públicas lidam com esse jovem e que discursos são acionados. A primeira parte do trabalho apresenta um panorama de como a articulação entre diversidade sexual e de gênero e adolescência se apresenta (ou não) em documentos relacionados ao campo dos direitos humanos e políticas sociais, a partir das seguintes áreas programáticas e políticas setoriais: (i) Direitos da Criança e do Adolescente; (ii) Direitos da Juventude; (iii) Direitos da População LGBT; (iv) Direitos Humanos; (v) Saúde; (vi) Assistência Social; (vii) Educação. A segunda parte do trabalho se propõe a acompanhar os embates em relação à articulação entre diversidade sexual e de gênero e adolescência a partir de duas experiências: (i) apresento e discuto a trajetória do Projeto Escola sem Homofobia, ligado ao Ministério da Educação, e a polêmica produzida por sua elaboração, remontando ao conjunto de atores, arenas e disputas que ele envolveu; (ii) a partir da experiência dos Centros de Cidadania LGBT do Estado do Rio de Janeiro, serviços governamentais previstos no Programa Rio sem Homofobia, apresento e discuto o conjunto de discursos e atores institucionais que interpelam e são acionados pelos Centros, a partir das demandas trazidas e/ou relacionadas aos adolescentes.
Resumo:
Atualmente tem se apresentado, pelo movimento quilombola, a demanda de formulação de políticas educacionais para o povo quilombola, acompanhando as reivindicações para legitimação do direito ao território ocupado secularmente, assim como outros direitos demandados por este povo tradicional. O processo de educação e escolarização na educação básica de um território quilombola como o de Brejo dos Crioulos em Minas Gerais, sob a perspectiva da educação diferenciada, ou seja, orientada culturalmente, pode estar fortemente relacionado com a dimensão política da atuação dos quilombolas na luta pelo reconhecimento e legitimidade do território, do modo de vida, da sua identidade, da sua cultura e história. Contemplou-se nesta investigação o mapeamento e a análise dos processos educativos de Brejo dos Crioulos apontando suas propostas curriculares, seus avanços, assim como os limites relacionados à formulação e implementação de políticas direcionadas para o desenvolvimento educacional local. A investigação no território quilombola específico, nos moldes da pesquisa qualitativa enquanto lógica de investigação, abordou as ações do movimento quilombola estadual e local, a identidade coletiva e a territorialidade em relação ao ciclo de políticas disponível, como, por exemplo, a Lei n 10.639/03, atualizada por meio da Lei n 11.645/08 e diretrizes curriculares que alteram a Lei n 9.394/96, com o objetivo de incluir, no currículo oficial da rede de ensino, a obrigatoriedade do ensino da História e cultura afro-brasileira e indígena, e as Diretrizes Curriculares para Educação Quilombola, aprovadas em 05 de junho de 2012, Parecer MEC/CNE/CEB 16/2012, homologadas na Resolução MEC/CNE/CEB n 8, publicada em 20 de novembro de 2012. Além das práticas políticas quilombolas, foram analisadas as práticas de gestão educacional do poder público municipal de São João da Ponte e Varzelândia, municípios do norte mineiro que integram o território pesquisado. Com a inserção em campo, nos moldes explicitados, foi privilegiado o uso da observação direta para mapear e descrever em profundidade o cotidiano no território pesquisado. Com a inserção em campo, nos moldes explicitados, foi privilegiado o uso da observação direta para mapear e descrever em profundidade o cotidiano no território pesquisado, as representações políticas e educacionais, as mudanças e transformações atuais. A entrevista em forma de conversa é, também, uma das técnicas utilizadas para documentar as experiências e representações dos sujeitos quilombolas, professores, gestores e coordenadores envolvidos com a educação e escolarização no território de Brejo dos Crioulos, além de registros em áudio, vídeo e caderno de campo. O tratamento e a análise dos dados coletados obedecem a critérios metodológicos qualitativos de triangulação para apresentação dos resultados da pesquisa.
Resumo:
A segmentação dos nomes nas suas partes constitutivas é uma etapa fundamental no processo de integração de bases de dados por meio das técnicas de vinculação de registros. Esta separação dos nomes pode ser realizada de diferentes maneiras. Este estudo teve como objetivo avaliar a utilização do Modelo Escondido de Markov (HMM) na segmentação nomes e endereços de pessoas e a eficiência desta segmentação no processo de vinculação de registros. Foram utilizadas as bases do Sistema de Informações sobre Mortalidade (SIM) e do Subsistema de Informação de Procedimentos de Alta Complexidade (APAC) do estado do Rio de Janeiro no período entre 1999 a 2004. Uma metodologia foi proposta para a segmentação de nome e endereço sendo composta por oito fases, utilizando rotinas implementadas em PL/SQL e a biblioteca JAHMM, implementação na linguagem Java de algoritmos de HMM. Uma amostra aleatória de 100 registros de cada base foi utilizada para verificar a correção do processo de segmentação por meio do modelo HMM.Para verificar o efeito da segmentação do nome por meio do HMM, três processos de vinculação foram aplicados sobre uma amostra das duas bases citadas acima, cada um deles utilizando diferentes estratégias de segmentação, a saber: 1) divisão dos nomes pela primeira parte, última parte e iniciais do nome do meio; 2) divisão do nome em cinco partes; (3) segmentação segundo o HMM. A aplicação do modelo HMM como mecanismo de segmentação obteve boa concordância quando comparado com o observador humano. As diferentes estratégias de segmentação geraram resultados bastante similares na vinculação de registros, tendo a estratégia 1 obtido um desempenho pouco melhor que as demais. Este estudo sugere que a segmentação de nomes brasileiros por meio do modelo escondido de Markov não é mais eficaz do que métodos tradicionais de segmentação.
Resumo:
A validação dos métodos de análises em situações fora da rotina, em P&D pesquisa e desenvolvimento, pode tornar-se um processo de difícil solução, em oposição àquelas de rotina, onde as concentrações são conhecidas. Nesta última situação, o método analítico é validado e aprovado com simplicidade. Apesar dos elementos de qualidade básicos para análises em P&D serem os mesmos adotados nas análises de rotina, fatores como o comportamento imprevisível da amostra, a composição desconhecida da matriz e interdependência com o analito, mesmo a incerteza a respeito da escolha do método instrumental, requer uma atenção renovada nos elementos de qualidade existentes. A razão pode ser atribuída à imprevisibilidade do procedimento analítico e a extensão do esforço adicional dos elementos de qualidade. As incertezas das análises em P&D requerem uma cuidadosa consideração do problema, assim como a disponibilidade de técnicas analíticas. Ao mesmo tempo, devem-se observar o planejamento e organização do trabalho, a supervisão do desenvolvimento analítico e a adequação dos aspectos técnico e organizacional - no trabalho de P&D, a definição de responsabilidades e a competência do corpo técnico. A garantia da qualidade nas indústrias farmacêuticas é estabelecida pelo desenvolvimento de especificações apropriadas para matérias-primas, produtos intermediários e produtos finais. A importância de especificações adequadas foi estabelecida e exemplos foram dados no desenvolvimento de especificação típica para produtos farmacêuticos, tais como a vacina e matéria prima. Isto incluiu uma discussão dos tipos de parâmetros que precisam ser controlados e uma indicação dos valores numéricos ou faixas esperadas para muitos materiais utilizados. A metrologia analítica que necessita ser aplicada para demonstrar a observância com as especificações foi discutida, com as implicações de desempenho do método para diferenciar variações na qualidade do produto e a simples variabilidade analítica. Esse trabalho foi escrito para laboratórios, com a finalidade de dar um suporte na implementação da validação de métodos analíticos e introduzir o conceito de incerteza da medida nas análises de rotina. O objetivo foi fornecer de uma maneira compreensível e prática a metodologia dos cálculos das medidas de incerteza baseados principalmente em dados de controle de qualidade e de validação já existentes. Exemplos práticos retirados diretamente do Laboratório de Metrologia e Validação, FIOCRUZ / Bio-Manguinhos, foram apresentados. Entretanto, o tratamento usado neste trabalho é genérico e pode ser aplicável a outros laboratórios químicos
Resumo:
Esta dissertação tem o objetivo investigar as representações do universo mítico-religioso de matriz africana na formação de professores, no âmbito do curso normal, a partir da observação participante em duas escolas da rede pública estadual do Rio de Janeiro. Pretende-se apurar se entraves à aplicação da Lei 10.639/2003 (bem como a Resolução 01/2004 do CNE/CP e Parecer CNE/CP 03/2004), que visa cumprir o que estabelece o Plano Nacional de Implementação das Diretrizes Curriculares Nacionais para a Educação das Relações Étnico-raciais e para o Ensino de História e Cultura Afro-Brasileira e Indígena, podem ser identificados no plano objetivo da capacidade técnica dos professores e/ou no plano subjetivo, no qual se retrairiam as ações orientadas nessa direção em face de limites de natureza ideológica. O principal desafio proposto é o de revelar, no discurso e nos atos, intencionais ou não, de educadores que formam novos educadores, os limites ideológicos à aplicação da legislação em questão, e que vicejam nas ações e reações em sala de aula.
Resumo:
Esta pesquisa tem por objetivo geral analisar a dinâmica de funcionamento das atividades não formais do Colégio Estadual Guadalajara e apontar para possíveis pontes-diálogo entre educação formal e não formal nesse espaço escolar. Para atingir esse objetivo a dissertação contemplou: a) a descrição das atividades do Núcleo de Cultura do Guadá desde a sua implementação, b) a análise das possíveis relações estabelecidas entre as atividades não formais e as atividades oferecidas pela instituição a partir do proposto pela rede oficial de ensino e c) a influência do Programa Mais Educação na promoção das atividades não formais de ensino pela escola. Nesse sentido, a investigação em foco, ressalta o regime colaborativo entre o ideal de educação integral proposto pelo programa e a perspectiva de formação holística do indivíduo presente nas atividades não formais do C.E. Guadalajara. Para isso conta com aporte teórico de autores como Gohn (2010), Trilla (2008), Gadotti (2005) e Libâneo (2010) para conceituar e categorizar educação formal e não formal. E, com Ferreira (2007), Guará (2006), Cavaliere (2002) e Coelho (s/d) para esclarecer a perspectiva de educação integral e problematizá-la. Os procedimentos metodológicos adotados foram: observação não-participante, análise documental, história oral e aplicação de entrevistas semi-estruturada realizadas com as duas animadoras culturais do Núcleo de Cultura. Os resultados revelam que, de fato existem articulações pontuais entre educação formal e não formal na escola pesquisada. Este aspecto está relacionado com a participação de professores no planejamento das atividades não formais e a melhoria do rendimento dos alunos nas disciplinas formais em virtude da participação nas oficinas ofertadas pelo núcleo. No tocante a colaboração do Programa Mais Educação para a promoção das atividades não formais da escola foi constatado que o programa serviu como auxílio para subsidiar atividades que já ocorriam no espaço escolar sem seu financiamento.
Resumo:
Multi-Processor System-on-Chip (MPSoC) possui vários processadores, em um único chip. Várias aplicações podem ser executadas de maneira paralela ou uma aplicação paralelizável pode ser particionada e alocada em cada processador, a fim de acelerar a sua execução. Um problema em MPSoCs é a comunicação entre os processadores, necessária para a execução destas aplicações. Neste trabalho, propomos uma arquitetura de rede de interconexão baseada na topologia crossbar, com memória compartilhada. Esta arquitetura é parametrizável, possuindo N processadores e N módulos de memórias. A troca de informação entre os processadores é feita via memória compartilhada. Neste tipo de implementação cada processador executa a sua aplicação em seu próprio módulo de memória. Através da rede, todos os processadores têm completo acesso a seus módulos de memória simultaneamente, permitindo que cada aplicação seja executada concorrentemente. Além disso, um processador pode acessar outros módulos de memória, sempre que necessite obter dados gerados por outro processador. A arquitetura proposta é modelada em VHDL e seu desempenho é analisado através da execução paralela de uma aplicação, em comparação à sua respectiva execução sequencial. A aplicação escolhida consiste na otimização de funções objetivo através do método de Otimização por Enxame de Partículas (Particle Swarm Optimization - PSO). Neste método, um enxame de partículas é distribuído igualmente entre os processadores da rede e, ao final de cada interação, um processador acessa o módulo de memória de outro processador, a fim de obter a melhor posição encontrada pelo enxame alocado neste. A comunicação entre processadores é baseada em três estratégias: anel, vizinhança e broadcast. Essa aplicação foi escolhida por ser computacionalmente intensiva e, dessa forma, uma forte candidata a paralelização.
Resumo:
Esta dissertação investiga a aplicação dos algoritmos evolucionários inspirados na computação quântica na síntese de circuitos sequenciais. Os sistemas digitais sequenciais representam uma classe de circuitos que é capaz de executar operações em uma determinada sequência. Nos circuitos sequenciais, os valores dos sinais de saída dependem não só dos valores dos sinais de entrada como também do estado atual do sistema. Os requisitos cada vez mais exigentes quanto à funcionalidade e ao desempenho dos sistemas digitais exigem projetos cada vez mais eficientes. O projeto destes circuitos, quando executado de forma manual, se tornou demorado e, com isso, a importância das ferramentas para a síntese automática de circuitos cresceu rapidamente. Estas ferramentas conhecidas como ECAD (Electronic Computer-Aided Design) são programas de computador normalmente baseados em heurísticas. Recentemente, os algoritmos evolucionários também começaram a ser utilizados como base para as ferramentas ECAD. Estas aplicações são referenciadas na literatura como eletrônica evolucionária. Os algoritmos mais comumente utilizados na eletrônica evolucionária são os algoritmos genéticos e a programação genética. Este trabalho apresenta um estudo da aplicação dos algoritmos evolucionários inspirados na computação quântica como uma ferramenta para a síntese automática de circuitos sequenciais. Esta classe de algoritmos utiliza os princípios da computação quântica para melhorar o desempenho dos algoritmos evolucionários. Tradicionalmente, o projeto dos circuitos sequenciais é dividido em cinco etapas principais: (i) Especificação da máquina de estados; (ii) Redução de estados; (iii) Atribuição de estados; (iv) Síntese da lógica de controle e (v) Implementação da máquina de estados. O Algoritmo Evolucionário Inspirado na Computação Quântica (AEICQ) proposto neste trabalho é utilizado na etapa de atribuição de estados. A escolha de uma atribuição de estados ótima é tratada na literatura como um problema ainda sem solução. A atribuição de estados escolhida para uma determinada máquina de estados tem um impacto direto na complexidade da sua lógica de controle. Os resultados mostram que as atribuições de estados obtidas pelo AEICQ de fato conduzem à implementação de circuitos de menor complexidade quando comparados com os circuitos gerados a partir de atribuições obtidas por outros métodos. O AEICQ e utilizado também na etapa de síntese da lógica de controle das máquinas de estados. Os circuitos evoluídos pelo AEICQ são otimizados segundo a área ocupada e o atraso de propagação. Estes circuitos são compatíveis com os circuitos obtidos por outros métodos e em alguns casos até mesmo superior em termos de área e de desempenho, sugerindo que existe um potencial de aplicação desta classe de algoritmos no projeto de circuitos eletrônicos.
Resumo:
Fontes radioativas possuem radionuclídeos. Um radionuclídeo é um átomo com um núcleo instável, ou seja, um núcleo caracterizado pelo excesso de energia que está disponível para ser emitida. Neste processo, o radionuclídeo sofre o decaimento radioativo e emite raios gama e partículas subatômicas, constituindo-se na radiação ionizante. Então, a radioatividade é a emissão espontânea de energia a partir de átomos instáveis. A identificação correta de radionuclídeos pode ser crucial para o planejamento de medidas de proteção, especialmente em situações de emergência, definindo o tipo de fonte de radiação e seu perigo radiológico. Esta dissertação apresenta a aplicação do método de agrupamento subtrativo, implementada em hardware, para um sistema de identificação de elementos radioativos com uma resposta rápida e eficiente. Quando implementados em software, os algoritmos de agrupamento consumem muito tempo de processamento. Assim, uma implementação dedicada para hardware reconfigurável é uma boa opção em sistemas embarcados, que requerem execução em tempo real, bem como baixo consumo de energia. A arquitetura proposta para o hardware de cálculo do agrupamento subtrativo é escalável, permitindo a inclusão de mais unidades de agrupamento subtrativo para operarem em paralelo. Isso proporciona maior flexibilidade para acelerar o processo de acordo com as restrições de tempo e de área. Os resultados mostram que o centro do agrupamento pode ser identificado com uma boa eficiência. A identificação desses pontos pode classificar os elementos radioativos presentes em uma amostra. Utilizando este hardware foi possível identificar mais do que um centro de agrupamento, o que permite reconhecer mais de um radionuclídeo em fontes radioativas. Estes resultados revelam que o hardware proposto pode ser usado para desenvolver um sistema portátil para identificação radionuclídeos.
Resumo:
Controle de processos é uma das muitas aplicações que aproveitam as vantagens do uso da teoria de conjuntos nebulosos. Nesse tipo de aplicação, o controlador é, geralmente, embutido no dispositivo controlado. Esta dissertação propõe uma arquitetura reconfigurável eficiente para controladores nebulosos embutidos. A arquitetura é parametrizável, de tal forma, que permite a configuração do controlador para que este possa ser usado na implementação de qualquer aplicação ou modelo nebuloso. Os parâmetros de configuração são: o número de variáveis de entrada (N); o número de variáveis de saída (M); o número de termos linguísticos (Q); e o número total de regras (P). A arquitetura proposta proporciona também a configuração das características que definem as regras e as funções de pertinência de cada variável de entrada e saída, permitindo a escalabilidade do projeto. A composição das premissas e consequentes das regras são configuráveis, de acordo com o controlador nebuloso objetivado. A arquitetura suporta funções de pertinência triangulares, mas pode ser estendida para aceitar outras formas, do tipo trapezoidal, sem grandes modificações. As características das funções de pertinência de cada termo linguístico, podem ser ajustadas de acordo com a definição do controlador nebuloso, permitindo o uso de triângulos. Virtualmente, não há limites máximos do número de regras ou de termos linguísticos empregados no modelo, bem como no número de variáveis de entrada e de saída. A macro-arquitetura do controlador proposto é composta por N blocos de fuzzificação, 1 bloco de inferência, M blocos de defuzzificação e N blocos referentes às características das funções de pertinência. Este último opera apenas durante a configuração do controlador. A função dos blocos de fuzzificação das variáveis de entrada é executada em paralelo, assim como, os cálculos realizados pelos blocos de defuzzificação das variáveis de saída. A paralelização das unidades de fuzzificação e defuzzificação permite acelerar o processo de obtenção da resposta final do controlador. Foram realizadas várias simulações para verificar o correto funcionamento do controlador, especificado em VHDL. Em um segundo momento, para avaliar o desempenho da arquitetura, o controlador foi sintetizado em FPGA e testado em seis aplicações para verificar sua reconfigurabilidade e escalabilidade. Os resultados obtidos foram comparados com os do MATLAB em cada aplicação implementada, para comprovar precisão do controlador.
Resumo:
A Otimização por Enxame de Partículas (PSO, Particle Swarm Optimization) é uma técnica de otimização que vem sendo utilizada na solução de diversos problemas, em diferentes áreas do conhecimento. Porém, a maioria das implementações é realizada de modo sequencial. O processo de otimização necessita de um grande número de avaliações da função objetivo, principalmente em problemas complexos que envolvam uma grande quantidade de partículas e dimensões. Consequentemente, o algoritmo pode se tornar ineficiente em termos do desempenho obtido, tempo de resposta e até na qualidade do resultado esperado. Para superar tais dificuldades, pode-se utilizar a computação de alto desempenho e paralelizar o algoritmo, de acordo com as características da arquitetura, visando o aumento de desempenho, a minimização do tempo de resposta e melhoria da qualidade do resultado final. Nesta dissertação, o algoritmo PSO é paralelizado utilizando três estratégias que abordarão diferentes granularidades do problema, assim como dividir o trabalho de otimização entre vários subenxames cooperativos. Um dos algoritmos paralelos desenvolvidos, chamado PPSO, é implementado diretamente em hardware, utilizando uma FPGA. Todas as estratégias propostas, PPSO (Parallel PSO), PDPSO (Parallel Dimension PSO) e CPPSO (Cooperative Parallel PSO), são implementadas visando às arquiteturas paralelas baseadas em multiprocessadores, multicomputadores e GPU. Os diferentes testes realizados mostram que, nos problemas com um maior número de partículas e dimensões e utilizando uma estratégia com granularidade mais fina (PDPSO e CPPSO), a GPU obteve os melhores resultados. Enquanto, utilizando uma estratégia com uma granularidade mais grossa (PPSO), a implementação em multicomputador obteve os melhores resultados.
Resumo:
O presente trabalho pretende analisar o movimento crescente de promoção da regularização fundiária de interesse social em curso nas favelas cariocas. O objetivo é estudar as causas, o conteúdo e os objetivos do instituto a fim de compreender seus resultados antinômicos de promoção e negação de direitos fundamentais para a população residente nestas áreas. Além da análise sobre a implementação da regularização fundiária de interesse social nas favelas cariocas, pretende-se demonstrar o papel das políticas públicas na superação da antinomia inerente ao instituto, garantindo os direitos fundamentais dos moradores destas áreas. Algumas políticas específicas foram destacadas para análise mais detida, como as de incremento da participação popular, subsídios para os custos decorrentes da regularização dos imóveis e educação para a devida compreensão do novo enquadramento e valor da propriedade já regularizada. Com esta análise, pretende o presente trabalho contribuir para o aperfeiçoamento da prática da regularização fundiária de interesse social nas favelas cariocas, a fim de que se possa minimizar seu aspecto prático de negação de direitos, maximizando a garantia dos direitos fundamentais aos moradores destas localidades.
Resumo:
Os RCC são originados dos diversos processos da construção civil, com características bastante particulares pela variedade dos métodos construtivos empregados. Suas deposições em locais inadequados causam vários impactos com diferentes tempos de reação e de degradação do meio ambiente. Para impedi-los foi aprovada a Resolução 307 do CONAMA, que estabelece critérios e normas de caráter protetor ao meio ambiente, porém as administrações públicas possuem inúmeras dificuldades técnicas e financeiras para sua implementação. Para auxiliar os municípios, a CEF elaborou dois manuais de orientações para o manejo e gestão dos RCC, direcionando o sistema gestor. Uma opção para a gestão de RCC é a reciclagem. O Município do Rio de Janeiro com seu relevo original formado por mangues e morros, sofreu grandes aterros e sofre até os dias atuais, utilizando para isso os RCC e o desmonte de antigos morros. Os RCC, após coletados, são destinados a uma única Área de Transbordo e Triagem, com capacidade insuficiente para recebê-los. A ausência de controle do órgão gestor sobre os RCC, seus dados de produção e de destinação, exige uma estimativa dos RCC gerados no Município e uma observação global sobre seus destinos, considerando os aterros autorizados pela SMAC. Foi realizada uma análise crítica da gestão corretiva adotada pelo sistema gestor, suas particularidades e dificuldades, e o perfil atual sobre a reciclagem de RCC no Rio de Janeiro. Algumas propostas para a melhoria do sistema gestor foram apresentadas e sugerida a necessidade de um estudo mais aprofundado e de um levantamento mais completo da realidade dos RCC no Município do Rio de Janeiro.
Resumo:
O ideal de efetivação da Constituição Federal nos tempos atuais é a concretização dos direitos sociais nela estampados. No entanto, garantir direitos sociais, essenciais para a consolidação de uma igualdade material, capaz de diminuir as discrepâncias sociais, pode corroborar para uma política de troca de favores e aprofundar as raízes clientelistas do voto, dependendo da forma como as políticas públicas são colocadas em prática. O presente estudo visa a analisar a relação entre a implementação de direitos sociais e o exercício de direitos políticos, considerando as políticas de redistribuição de renda desenvolvidas nos últimos governos, principalmente o Programa Bolsa Família. O objetivo é verificar se há algum clientelismo por parte dos governantes ao estabelecer tais políticas, uma vez que podem eles se valer da desigualdade econômica, da vulnerabilidade cívica e da fragilidade das instituições democráticas do país como instrumentos para forjar sua imagem à semelhança de um pai, protetor de uma sociedade carecedora de direitos básicos. E isso pode acabar por institucionalizar um modelo sutil de clientelismo que descaracteriza os indivíduos como atores capazes de escolher as políticas que melhor implementam seus interesses, impedindo o livre exercício do direito ao voto. Por isso, mesmo a concretização de direitos sociais também deve levar em conta que um modelo de democracia inclui ainda a viabilização de um autogoverno dos cidadãos, razão pela qual parece fundamental que, ao gozar de direitos sociais, os sujeitos percebam a sua participação e ingerência na escolha das políticas públicas. O desafio proposto é utilizar o referencial teórico-metodológico do continuum para, ao longo do espectro formado entre o clientelismo e a cidadania, tentar propor alguns parâmetros para aproximar ao máximo as políticas públicas de concretização de direitos sociais de um ideal de cidadania.
Resumo:
Em engenharia, a modelagem computacional desempenha um papel importante na concepção de produtos e no desenvolvimento de técnicas de atenuação de ruído. Nesse contexto, esta tese investiga a intensidade acústica gerada pela radiação sonora de superfícies vibrantes. De modo específico, a pesquisa enfoca a identificação das regiões de uma fonte sonora que contribuem efetivamente para potência sonora radiada para o campo afastado, quando a frequência de excitação ocorre abaixo da frequência crítica de coincidência. São descritas as fundamentações teóricas de duas diferentes abordagens. A primeira delas, denominada intensidade supersônica (analítica) é calculada via transformadas de Fourier para fontes sonoras com geometrias separáveis. A segunda, denominada intensidade útil (numérica) é calculada através do método dos elementos de contorno clássico para fontes com geometrias arbitrárias. Em ambas, a identificação das regiões é feita pela filtragem das ondas não propagantes (evanescentes). O trabalho está centrado em duas propostas, a saber. A primeira delas, é a apresentação implementação e análise de uma nova técnica numérica para o cálculo da grandeza intensidade útil. Essa técnica constitui uma variante do método dos elementos de contorno (MEC), tendo como base o fato de as aproximações para as variáveis acústicas pressão e velocidade normal serem tomadas como constantes em cada elemento. E também no modo peculiar de obter a velocidade constante através da média de um certo número de velocidades interiores a cada elemento. Por esse motivo, a técnica recebe o nome de método de elemento de contorno com velocidade média (AVBEMAverage Velocity Boundary Element Method). A segunda, é a obtenção da solução forma fechada do campo de velocidade normal para placas retangulares com oito diferentes combinações de condições contorno clássicas. Então, a intensidade supersônica é estimada e comparada à intensidade acústica. Nos ensaios numéricos, a comparação da intensidade útil obtida via MEC clássico e via AVBEM é mostrada para ilustrar a eficiência computacional da técnica aqui proposta, que traz como benefício adicional o fato de poder ser utilizada uma malha menos refinada para as simulações e, consequentemente, economia significativa de recursos computacionais.