59 resultados para Reatores eletrônicos
Resumo:
O tráfego de veículos, principalmente nas vias públicas de regiões densamente povoadas, tem sido objeto de preocupação por diversos aspectos: segurança no trânsito, supervisão da frota, controle de poluição, prevenção, registro de irregularidades, etc. Sistemas eletrônicos tradicionais são apontados como limitados pelas dificuldades apresentadas na instalação dos sensores e poucos recursos para extração de informações. Este trabalho propõe um sistema baseado no processamento digital de imagens em vídeo para detectar, acompanhar e extrair informações de um veículo em movimento, tais como: posição, velocidade e dimensões. Embora técnicas de pré-processamento sejam empregadas para minimizar problemas iluminação e trepidação, informações obtidas nas etapas finais do processamento, tendem a distorcer em função destes fatores. Algoritmos baseados em análise probabilística no domínio espaço temporal de imagens 2-D são propostos para segmentar o objeto mesmo na presença destes fatores. A fim de tornar o acompanhamento mais robusto a oclusões e pixels espúrio s, é proposto um método que detecta e rejeita posições inconsistentes do objeto de acordo com a estimativa de sua próxima posição.
Resumo:
nRPN, nRPNSTAT e nRPNDYN são novos índices, propostos nesta dissertação, que quantificam o grau de não-linearidade total, estática e dinâmica, respectivamente, de sistemas dinâmicos não- lineares. Estes novos índices permitem responder se é necessária a utilização de controladores não-lineares ou se simples controladores lineares apresentarão desempenho satisfatório. Além disso, se um controlador não- linear se fizer necessário, quais características este deve apresentar. Nesta dissertação é realizado um estudo acerca das metodologias para determinação do grau de não- linearidade de plant as industriais. Entre as encontradas, a que apresenta as melhores potencialidades é estudada em detalhes, tendo seus atributos e deficiências explorados. As deficiências foram sanadas e um novo conjunto de índices é proposto (nRPN, nRPNSTAT e nRPNDYN), o qual, além de apresentar resultados conclusivos em termos quantitativos, também traz novas informações valiosas para a escolha do controlador adequado, como a parcela estática e dinâmica da não- linearidade. A metodologia proposta é aplicada e testada em um conjunto bastante amplo e complementar de possíveis sistemas dinâmicos não-lineares (tais como: pH, reatores químicos e coluna de destilação de alta pureza) onde o comportamento nãolinear já foi explorado na literatura O desenvolvimento e o estudo do comportamento dinâmico de uma planta laboratorial de cinco tanques acoplados são apresentados. Este sistema possui dinâmica e ganhos variáveis, descontinuidades, inversão no sinal do ganho multivariável e diferentes graus de acoplamento, ilustrando de forma simples vários possíveis comportamentos dinâmicos encontrados em plantas industriais. Devido a esta grande versatilidade a planta foi construída e testada, confirmando os comportamentos previstos nos estudos teóricos.
Resumo:
With the ever increasing demands for high complexity consumer electronic products, market pressures demand faster product development and lower cost. SoCbased design can provide the required design flexibility and speed by allowing the use of IP cores. However, testing costs in the SoC environment can reach a substantial percent of the total production cost. Analog testing costs may dominate the total test cost, as testing of analog circuits usually require functional verification of the circuit and special testing procedures. For RF analog circuits commonly used in wireless applications, testing is further complicated because of the high frequencies involved. In summary, reducing analog test cost is of major importance in the electronic industry today. BIST techniques for analog circuits, though potentially able to solve the analog test cost problem, have some limitations. Some techniques are circuit dependent, requiring reconfiguration of the circuit being tested, and are generally not usable in RF circuits. In the SoC environment, as processing and memory resources are available, they could be used in the test. However, the overhead for adding additional AD and DA converters may be too costly for most systems, and analog routing of signals may not be feasible and may introduce signal distortion. In this work a simple and low cost digitizer is used instead of an ADC in order to enable analog testing strategies to be implemented in a SoC environment. Thanks to the low analog area overhead of the converter, multiple analog test points can be observed and specific analog test strategies can be enabled. As the digitizer is always connected to the analog test point, it is not necessary to include muxes and switches that would degrade the signal path. For RF analog circuits, this is specially useful, as the circuit impedance is fixed and the influence of the digitizer can be accounted for in the design phase. Thanks to the simplicity of the converter, it is able to reach higher frequencies, and enables the implementation of low cost RF test strategies. The digitizer has been applied successfully in the testing of both low frequency and RF analog circuits. Also, as testing is based on frequency-domain characteristics, nonlinear characteristics like intermodulation products can also be evaluated. Specifically, practical results were obtained for prototyped base band filters and a 100MHz mixer. The application of the converter for noise figure evaluation was also addressed, and experimental results for low frequency amplifiers using conventional opamps were obtained. The proposed method is able to enhance the testability of current mixed-signal designs, being suitable for the SoC environment used in many industrial products nowadays.
Resumo:
A validação de projetos de sistemas eletrônicos pode ser feita de diversas maneiras, como tem sido mostrado pelas pesquisas em síntese automática e verificação formal. Porém, a simulação ainda é o método mais utilizado. O projeto de um sistema digital típico pode ser desenvolvido em diversos níveis de abstração, como os níveis algorítmico, lógico ou analógico. Assim, a simulação também deve ser executada em todos esses níveis. A simulação apresenta, contudo, o inconveniente de não conseguir conciliar uma alta acuracidade de resultados com um baixo tempo de simulação. Quanto mais detalhada é a descrição do circuito, maior é o tempo necessário para simulá-lo. O inverso também é verdadeiro, ou seja, quanto menor for a acuracidade exigida, menor será o tempo dispendido. A simulação multinível tenta conciliar eficiêencia e acuracidade na simulação de circuitos digitais, propondo que partes do circuito sejam descritas em diferentes níveis de abstração. Com isso, somente as partes mais críticas do sistema são descritas em detalhes e a velocidade da simulação aumenta. Contudo, essa abordagem não é suficiente para oferecer um grande aumento na velocidade de simulação de grandes circuitos. Assim, surge como alternativa a aplicação de técnicas de processamento distribuído à simulação multinível. Os aspectos que envolvem a combinação dessas duas técnicas são abordados nesse trabalho. Como plataforma para os estudos realizados, optou-se por usar duas ferramentas desenvolvidas nessa Universidade: os simuladores do Sistema AMPLO e o Sistema Operacional HetNOS. São estudadas técnicas de sincronização em sistemas distribuídos, fundamentais para o desenvolvimento dos simuladores e, finalmente, são propostas alternativas para a distribuição dos simuladores. É realizada, ainda, uma análise comparativa entre as versões propostas.
Resumo:
Historicamente, devido à incompreensibilidade dos fenômenos físicos envolvidos, diversas técnicas de análise experimental de escoamentos foram desenvolvidas. Inicialmente, estas técnicas consistiam em uma simples visualização do escoamento em questão. Visava-se com isto produzir a intuição física a respeito do sistema físico para que futuras teorias pudessem ser formuladas. No entanto, nos anos posteriores, tornou-se necessária a criação de técnicas quantitativas. Neste segmento, a evolução tecnológica da eletrônica propiciou que técnicas intrusivas e não intrusivas fossem criadas. Tal processo culminou com o surgimento da microeletrônica, quando sensores eletrônicos de imagem puderam ser fabricados. Assim, técnicas não intrusivas de velocimetria através de processamento digital de imagens tornaram-se referência, possibilitando a medição de campos de velocidade do escoamento em análise. Tais técnicas são atualmente utilizadas não apenas no meio acadêmico, na investigação da turbulência, como na indústria, em projetos de engenharia que envolvam alta tecnologia. Neste trabalho, apresenta-se uma metodologia para a concepção de um sistema de velocimetria de 2 dimensões por processamento digital de imagens. Para tanto, o sistema de velocimetria foi dividido em duas partes, sendo os equipamentos bem como os conceitos físicos envolvidos em cada uma analisados e descritos Por fim, projetou-se e implementou-se um sistema de velocimetria de 2 dimensões através de processamento digital de imagens, modo PIV. A sua validação foi efetuada sobre um escoamento altamente turbulento interno a um duto circular, cuja solução é conhecida e exaustivamente estudada no decorrer dos anos. O resultado obtido se apresentou totalmente satisfatório e demonstrou a grande importância atual de tal técnica de medição.
Resumo:
O crescimento constante na geração de resíduos sólidos em todo o mundo tem estimulado estudos para os mais variados tipos de resíduos. As sucatas eletrônicas fazem parte deste universo de materiais obsoletos e/ou defeituosos que necessitam ser dispostos de maneira mais adequada ou então reciclados. Neste trabalho foram estudadas as Placas de Circuito Impresso que fazem parte das sucatas eletrônicas e que são encontradas em quase todos os equipamentos eletro-eletrônicos (computadores, televisores, VCR´s, DVD´s, telefones celulares, impressoras, etc.). Para realizar esse estudo foram coletadas placas de circuito impresso (PCI) obsoletas ou defeituosas de computadores pessoais que são atualmente a maior fonte deste tipo de resíduo. As PCI são compostas de uma maneira geral de polímeros, cerâmicos e metais, o que dificulta o seu processamento. Por outro lado a presença de metais base (como cobre) e metais preciosos estimulam estudos quanto a sua reciclagem. Também a presença de metais pesados como Pb e Cd, que tornam as placas resíduos perigosos, demonstram a necessidade de pesquisar soluções para este tipo de resíduo, a fim de que possam ser dispostos adequadamente, sem prejudicar o meio ambiente. Na primeira etapa deste trabalho foi utilizado processamento mecânico, como moagem, separação granulométrica, separação magnética e separação eletrostática para obter uma fração concentrada em metais (principalmente Cu, Pb e Sn) e uma outra fração contendo polímeros e cerâmicos. Ao final deste processo foi possível obter nas frações concentradas em metais uma concentração média de cobre de 50%. Na segunda etapa a fração concentrada em metais foi dissolvida com ácidos e enviada para uma eletro-obtenção a fim de recuperar os metais separadamente, neste primeiro momento o cobre. Por eletro-obtenção foram obtidos cátodos com teores de cobre acima de 96% Os resultados obtidos demonstram a viabilidade técnica de se recuperar o cobre utilizando processamento mecânico seguido de uma técnica eletrometalúrgica.
Resumo:
The work described in this thesis aims to support the distributed design of integrated systems and considers specifically the need for collaborative interaction among designers. Particular emphasis was given to issues which were only marginally considered in previous approaches, such as the abstraction of the distribution of design automation resources over the network, the possibility of both synchronous and asynchronous interaction among designers and the support for extensible design data models. Such issues demand a rather complex software infrastructure, as possible solutions must encompass a wide range of software modules: from user interfaces to middleware to databases. To build such structure, several engineering techniques were employed and some original solutions were devised. The core of the proposed solution is based in the joint application of two homonymic technologies: CAD Frameworks and object-oriented frameworks. The former concept was coined in the late 80's within the electronic design automation community and comprehends a layered software environment which aims to support CAD tool developers, CAD administrators/integrators and designers. The latter, developed during the last decade by the software engineering community, is a software architecture model to build extensible and reusable object-oriented software subsystems. In this work, we proposed to create an object-oriented framework which includes extensible sets of design data primitives and design tool building blocks. Such object-oriented framework is included within a CAD Framework, where it plays important roles on typical CAD Framework services such as design data representation and management, versioning, user interfaces, design management and tool integration. The implemented CAD Framework - named Cave2 - followed the classical layered architecture presented by Barnes, Harrison, Newton and Spickelmier, but the possibilities granted by the use of the object-oriented framework foundations allowed a series of improvements which were not available in previous approaches: - object-oriented frameworks are extensible by design, thus this should be also true regarding the implemented sets of design data primitives and design tool building blocks. This means that both the design representation model and the software modules dealing with it can be upgraded or adapted to a particular design methodology, and that such extensions and adaptations will still inherit the architectural and functional aspects implemented in the object-oriented framework foundation; - the design semantics and the design visualization are both part of the object-oriented framework, but in clearly separated models. This allows for different visualization strategies for a given design data set, which gives collaborating parties the flexibility to choose individual visualization settings; - the control of the consistency between semantics and visualization - a particularly important issue in a design environment with multiple views of a single design - is also included in the foundations of the object-oriented framework. Such mechanism is generic enough to be also used by further extensions of the design data model, as it is based on the inversion of control between view and semantics. The view receives the user input and propagates such event to the semantic model, which evaluates if a state change is possible. If positive, it triggers the change of state of both semantics and view. Our approach took advantage of such inversion of control and included an layer between semantics and view to take into account the possibility of multi-view consistency; - to optimize the consistency control mechanism between views and semantics, we propose an event-based approach that captures each discrete interaction of a designer with his/her respective design views. The information about each interaction is encapsulated inside an event object, which may be propagated to the design semantics - and thus to other possible views - according to the consistency policy which is being used. Furthermore, the use of event pools allows for a late synchronization between view and semantics in case of unavailability of a network connection between them; - the use of proxy objects raised significantly the abstraction of the integration of design automation resources, as either remote or local tools and services are accessed through method calls in a local object. The connection to remote tools and services using a look-up protocol also abstracted completely the network location of such resources, allowing for resource addition and removal during runtime; - the implemented CAD Framework is completely based on Java technology, so it relies on the Java Virtual Machine as the layer which grants the independence between the CAD Framework and the operating system. All such improvements contributed to a higher abstraction on the distribution of design automation resources and also introduced a new paradigm for the remote interaction between designers. The resulting CAD Framework is able to support fine-grained collaboration based on events, so every single design update performed by a designer can be propagated to the rest of the design team regardless of their location in the distributed environment. This can increase the group awareness and allow a richer transfer of experiences among them, improving significantly the collaboration potential when compared to previously proposed file-based or record-based approaches. Three different case studies were conducted to validate the proposed approach, each one focusing one a subset of the contributions of this thesis. The first one uses the proxy-based resource distribution architecture to implement a prototyping platform using reconfigurable hardware modules. The second one extends the foundations of the implemented object-oriented framework to support interface-based design. Such extensions - design representation primitives and tool blocks - are used to implement a design entry tool named IBlaDe, which allows the collaborative creation of functional and structural models of integrated systems. The third case study regards the possibility of integration of multimedia metadata to the design data model. Such possibility is explored in the frame of an online educational and training platform.
Resumo:
Água de alta pureza é utilizada para uma grande variedade de aplicações industriais, como na geração de vapor de alta pressão, na indústria de componentes eletrônicos e na fabricação de medicamentos. Os processos de separação por membranas (PSM), em particular a osmose inversa (OI), estão sendo cada vez mais utilizados na desmineralização de águas de uso industrial. As vantagens dos PSM, em relação aos processos convencionais, são que estes ocorrem sem mudança de fase, operam na temperatura ambiente e são altamente seletivos e modulares. Estes processos apresentam algumas limitações ao seu uso, sendo a principal o fouling das membranas, o qual pode ser devido à precipitação de substâncias, à adsorção ou até mesmo ao desenvolvimento microbiano. Este problema pode ser minimizado quando o sistema de OI é projetado e monitorado adequadamente, incluindo o pré o póstratamento da água. O desenvolvimento microbiano no sistema de membranas é um dos fatores que causa a maior perda de desempenho do sistema de OI. O seu controle é realizado através da utilização de agentes desinfetantes no pré-tratamento da água. O cloro é o agente oxidante mais utilizado na desinfeção da água e, mesmo em concentrações muito baixas (abaixo de 0,1 ppm), pode degradar a poliamida (PA), material amplamente utilizado na fabricação de membranas de OI. Tendo em vista este problema, o presente estudo tem como objetivo pesquisar um agente oxidante alternativo ao cloro, especificamente o dióxido de cloro, que possa ser mantido em baixas concentrações na corrente de alimentação do sistema de OI, sem danificar as membranas Os experimentos foram realizados em uma unidade de bancada de OI com escoamento tangencial, com módulo de membrana plana. Os efeitos de ClO 2 sobre a membrana de PA foram verificados a partir de alterações do seu desempenho. O desempenho da membrana de PA foi avaliado através de medidas de fluxo permeado, permeabilidade hidráulica e de retenção salina. Os resultados obtidos indicam que as membranas de PA são degradadas quando expostas a soluções contendo ClO 2 na concentração aproximada de 500 ppm. Nos experimentos onde a concentração do oxidante foi mantida em torno de 50 ppm, a degradação da membrana de PA exposta ao ClO 2 foi menor que a observada quando a membrana foi exposta ao cloro livre (aprox. 50ppm) em condições operacionais semelhantes. Observou-se ainda que pode existir uma relação entre o nível de degradação e a composição da alimentação. Como uma etapa complementar a este trabalho, foi acompanhada a partida de um sistema de OI industrial, no qual as membranas são de PA e a corrente de alimentação contém uma concentração residual de ClO 2 proveniente do sistema de pré-tratamento da água.
Resumo:
Esta pesquisa teve por objetivo avaliar aspectos fundamentais para o emprego de processo anaeróbio associado a membranas de micro e ultrafiltração no tratamento de efluentes de curtume oriundos do processo de acabamento. Para tanto, foi utilizada uma unidade piloto composta de um reator anaeróbio de mistura completa com um volume útil de 40 L, uma unidade de microfiltração para separação de biomassa e uma unidade de ultrafiltração para reter no sistema compostos macromoleculares (taninos). O material constituinte das membranas era cerâmica e o diâmetro médio de poro, especificado pelo fabricante, da microfiltração foi 0,2 mm e da ultrafiltração 0,005 mm. A biomassa no reator anaeróbio foi inoculada para que a concentração inicial fosse de 7.000 mg/L de SVT, sendo a origem desta um reator UASB tratando efluente de uma fábrica de gelatina. O trabalho foi desenvolvido em três etapas, sendo utilizadas diferentes pressões nas membranas, a saber: na primeira etapa as membranas foram operadas com um pressão de 800 kPa, na segunda com uma pressão de 600 kPa e na terceira etapa a pressão utilizada foi de 400 kPa. A remoção de cromo foi superior a 95% em todas as etapas, sendo que a maior remoção ocorreu no conjunto reator anaeróbio e microfiltração. Este comportamento deveu-se à fixação deste metal na biomassa e à conseqüente retenção desta na operação de microfiltração. A remoção média de matéria orgânica, avaliada através do parâmetro DQO, para as três etapas estudadas foi 68,13%, 58,32% e 60,17% e, em todo o sistema, de 81,93%, 76,20% e 69,15%. Ocorreu remoção total dos sólidos suspensos já que o diâmetro de poro da membrana de microfiltração era 55,55% inferior ao diâmetro de poro utilizado nas membranas para determinação de sólidos suspensos. Já para sólidos totais, onde inclui-se os dissolvidos, esta eficiência variou de 42% a 63%.
Resumo:
A concepção dos sistemas eletrônicos previstos para o futuro próximo implica em uma atividade multidisciplinar, a qual demanda, para o projeto de sistemas eletrônicos, o uso de métodos e técnicas provenientes de diversos domínios do conhecimento humano. Esses domínios podem variar desde a especificação de aplicações, até a realização física de circuitos integrados. A constante evolução dos processos de fabricação de circuitos integrados permite a criação de circuitos bastante complexos, seja em relação ao número de componentes eletrônicos e de suas inter-relações, seja em relação à heterogeneidade funcional presente nas aplicações alvo, previstas para estes sistemas. Para os próximos anos está prevista a possibilidade da inclusão de mais de um bilhão de transistores em uma única pastilha de silício, inaugurando a era da “gigaescala”. Devido a essa situação, a comunidade científica vem demonstrando preocupação em relação às novas técnicas que se fazem necessárias para a concepção dos “gigacircuitos”. Essas técnicas envolvem o uso de diferentes níveis de abstração na concepção e análise das funcionalidades da aplicação alvo, além de abordagens para explorar o grande espaço de busca, inerente à disponibilidade de um grande número de componentes para a implementação da arquitetura alvo, a qual deve ser otimizada para as restrições de projeto. As idéias apresentadas nesse trabalho vão de encontro à necessidade por novas técnicas para a concepção de circuitos eletrônicos complexos. Este trabalho procura contribuir para que esta classe de circuitos possa tornar-se realidade em um futuro próximo, avalizando a disponibilidade de informação, de entretenimento e de serviços para a sociedade. Para tanto, um novo método é proposto, onde um fluxo de projeto considera as ferramentas necessárias para a exploração do espaço de busca em componentes de processamento e de comunicação, visando à sua otimização. As ferramentas seguem os princípios do projeto baseado em plataformas, onde componentes podem ser reutilizadas para aplicações da mesma classe, em diferentes níveis de abstração. Além disso, os princípios da especificação baseada em interface são considerados, visando explicitar a especificação de funcionalidades heterogêneas para componentes arquiteturais, bem como permitir a avaliação dinâmica do comportamento destes.
Resumo:
A malha rodoviária brasileira apresenta-se, em sua maior extensão, em má condições de serventia. Uma das alternativas para se evitar deformações permanentes e trincamentos no pavimento é a adição, a quente e em reatores especiais, de polímeros ao asfalto. Esta prática já é realizada no Brasil há alguns anos, porém ainda não se tem um domínio do assunto, principalmente no caso da modificação de ligantes asfálticos brasileiros. O objetivo deste trabalho é avaliar a influência de algumas propriedades do polímero modificador no envelhecimento do ligante asfáltico modificado. Para tanto se realizou inicialmente um estudo sobre o mecanismo de envelhecimento de ligantes puros, inclusive frente a radiação ultravioleta do sol, e em seguida utilizou-se a mesma metodologia para avaliar o papel do polímero neste processo. Além disso, relacionou-se através de um projeto de experimentos a massa molar e teor de estireno do polímero SBS linear com suas propriedades clássicas, estabilidade, temperatura de transição vítrea e morfologia. Observou-se que a simulação de envelhecimento UV em laboratório, desenvolvida neste estudo, foi extremamente satisfatória. Os processos de foto-oxidação e termooxidação resultam em mecanismos diferentes de envelhecimento. A origem e composição química dos ligantes é de suma importância no mecanismo de envelhecimento UV destes. A massa molar e o teor de estireno do polímero modificador representam propriedades importantes para a estabilidade e durabilidade do ligante asfáltico modificado.
Resumo:
Em plantas de polimerização, uma das principais propriedades relacionadas à qualidade do produto é o índice de fluidez, ou MI. Esta propriedade é geralmente medida em laboratório, em intervalos de algumas horas. Por outro lado, as variáveis de processo estão disponíveis continuamente e são controladas com o objetivo de atingir as propriedades desejadas do produto. O desenvolvimento de um analisador virtual, que permita a estimação do MI de forma contínua, com base nestas variáveis medidas, pode levar a um melhor controle da qualidade do produto final. Este trabalho desenvolve um analisador virtual de MI para uma planta de polietileno de alta densidade (PEAD). Existem vários tipos de modelos que podem ser utilizados na implementação de um analisador virtual, assim como várias formas de correção on-line das suas estimativas. Este trabalho direciona especial atenção aos modelos semi-empíricos, e ao uso de um filtro de Kalman estendido (EKF) na correção das estimativas e dos parâmetros do modelo. O objeto de estudo desse trabalho foi um conjunto de produtos, cuja produção é realizada em dois reatores em série. Foram usados 21 conjuntos de dados representando diferentes períodos de operação da planta. Estes conjuntos de dados continham as principais variáveis de planta e os resultados de MI medidos em laboratório. A partir destes dados, foram estimados os parâmetros do modelo para cada reator. Também foi proposta e testada uma metodologia para a sintonia dos parâmetros do EKF. De posse dos modelos, do filtro e de seus respectivos parâmetros, foram gerados os resultados do analisador.
Resumo:
Os jogos eletrônicos são o tema desta investigação. A série de jogos para computador Tomb Raider, o objeto principal. Para desenvolver uma analítica em torno dos games, esta tese foi elaborada com base em duas problematizações: como nos tornamos sujeitos-jogadores em um campo estratégico chamado de jogos eletrônicos? Que efeitos tal campo tem sobre nós? Ambas foram construídas com base em teorizações foucautianas sobre a noção de governo. Elas funcionaram, dentre outras coisas, para compor os jogos eletrônicos como um campo estratégico de subjetivação articulado em torno de quatro grandes mecanismos de governo: a comunidade de jogadores, o currículo da série de jogos Tomb Raider, as histórias e narrativas e as personagens. Primeiramente, a composição da comunidade de jogadores tem base na organização de algumas técnicas de poder: a linguagem em comum entre os envolvidos; as técnicas de captura do consumidor; as técnicas de marketing, dentre outras. Em segundo lugar, por meio das histórias e das narrativas, os sujeitos-jogadores aprendem quem é a sua personagem, os motivos que a levaram a combater o mal, quem são seus amigos e inimigos, quais objetivos deverão ser cumpridos para se chegar ao final do jogo. Mesmo assim, o campo formado pelas técnicas de governo dos sujeitos-jogadores não se resume na organização de uma comunidade, da história e da criação de narrativas. Os games, como um campo estratégico de governo, relacionam-se, também, com a construção de suas personagens. Para a maior eficiência “pedagógica” dessa relação jogo-jogador, leva-se em conta, no desenvolvimento das histórias e na elaboração das personagens, aqueles a quem se quer capturar. Categorias como idade, sexo, comunidade da qual participam são de vital importância na elaboração dos jogos. Baseado nessas categorias, estão presentes nos games percepções do que é ou deveria ser um sujeitojogador. Os seres humanos, porém, como objetos do poder-saber, vão se constituindo como sujeitos de diversas maneiras. Não podemos falar em essência do sujeito. As relações de poder, dinâmicas e em constante movimento, vão sempre “fabricar novos sujeitos” e novas formas de subjetivação.
Resumo:
Neste trabalho, descreve-se o processo de produção de tecnologias educacionais e de Tecnologias da Informação e Comunicação (TICs), relacionando-as ao uso do ensino em Engenharia Geotécnica. Desenvolveu-se um sistema de informação baseado num modelo que integra recursos educacionais produzidos em diferentes formatos eletrônicos e um software baseado na Web para gestão destes recursos e das informações da disciplina Fundações. O software, denominado ENGEO, auxilia a estruturação do conhecimento envolvido no domínio de aplicação, fornecendo ao professor, ou equipe de gestão, ferramentas remotas de administração dos conteúdos e dos recursos educacionais. Aos alunos, a aplicação ENGEO fornece disponibilidade de informações e de conteúdo em um ambiente flexível. Este aplicativo foi desenvolvido para o curso de Engenharia Geotécnica, particularizado para Engenharia de Fundações, com o objetivo de introduzir e incentivar a utilização de sistemas baseados na Web para compartilhamento de conteúdo das disciplinas, implementar Tecnologias de Informação e Comunicação em aplicações para fins educacionais e fomentar discussões a respeito da identidade e perfil do Engenheiro e o papel da TICs no processo de formação do profissional de Engenharia.