960 resultados para Máquinas


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo tem como objetivo focalizar o Programa Um Computador por Aluno (PROUCA), buscando observar nas práticas pedagógicas de uma escola da rede municipal do Rio de Janeiro os processos de ressignificação e recontextualização, empreendidos naquele espaço. O PROUCA é desenvolvido em âmbito mundial, mas chegou à escola do município do Rio de Janeiro somente em 2010, enquanto a rede estadual já contava com o mesmo em algumas unidades escolares há mais tempo. Embasando-me em autores como McLaren (2000), Geertz (2008), André (2010), dentre outros, desde meados de 2010 e até o final do ano de 2012, foi desenvolvida uma pesquisa de cunho etnográfico na primeira escola do município do Rio de Janeiro a receber o PROUCA. No que se refere aos aspectos metodológicos, além da observação sistemática do cotidiano da Escola Conecta, foram utilizados recursos como conversas informais, entrevistas gravadas e transcritas, fotografias, participação em atividades da escola, além da coleta de informações em bibliografias específicas e consulta das matérias divulgadas pelo site oficial do PROUCA e do site do One Laptop per Child (OLPC), projeto que inspirou o PROUCA. Busco apoio em alguns dos aportes teórico-analíticos da Teoria do Discurso (TD) de Ernesto Laclau (2006, 2010, 2011, 2013) no sentido de fornecer subsídios interpretativos para significantes que aparecem nos discursos que circulavam nos espaços de realização da pesquisa, relacionando-os ao uso das tecnologias. No contato com a Escola, pude observar as dificuldades e as estratégias desenvolvidas para se colocar em prática e utilizar estes equipamentos tanto pelos/as alunos/as quanto pelos/as professores/as e os problemas relacionados à produção de um currículo escolar que atenda à atual política de resultados. Tais propostas apresentam-se vinculadas à idéia de inovação pedagógica e tentando entender como esta inovação de fato se deu, focalizei o caso do PROUCA e seu discurso de inclusão digital, entendendo-o como um discurso híbrido que tenta se fixar como inovador

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A análise de fundações sob solicitações dinâmicas é algo sempre presente em projetos na área industrial. É um campo pouco explorado na área de engenharia geotécnica, onde existem relativamente poucas informações no Brasil, de maneira geral. O método mais comum de realizar essas análises é a simplificação de modelos estruturais a partir do uso de molas. Sabe-se que esses coeficientes de reação têm uma variação relativamente grande e que esse enfoque de projeto pode, em alguns casos, mostrar-se contra a segurança ou levar a superdimensionamentos desnecessários. Verifica-se, então, a necessidade de uma avaliação mais criteriosa, utilizando a interação solo x estrutura, onde as molas comumente utilizadas nas análises vibratórias convencionais são substituídas pela rigidez real do solo quando concebido como um meio contínuo, através de sua discretização pelo método dos elementos finitos. A presente dissertação analisa o problema através do módulo de dinâmica do programa Plaxis 2D. Neste tipo de análise, além da modelagem do solo como um meio contínuo, torna-se possível introduzir condições de contorno específicas ao problema em estudo, múltiplas camadas de solo, sejam horizontais ou inclinadas, além da introdução de amortecedores capazes de evitar a reflexão espúria das ondas incidentes nos limites da malha de elementos finitos e assim modelar mais adequadamente a perda de energia por radiação. A presente dissertação compara medições experimentais e soluções eficientes de métodos vibratórios clássicos com a resposta obtida pelo MEF, mostrando resultados bastante satisfatórios tanto pelos métodos clássicos quanto pelo MEF.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Máquinas de Imagens é uma reflexão sobre a relação entre o processo artístico e as memórias de infância. A pesquisa propõe perceber a memória pessoal a partir de seu caráter editável e entender a montagem/edição enquanto agente temporalizador e estrutura de todo processo de criação artística. O trabalho discute uma reinvenção de memórias pessoais, dobras entre ficção e realidade, com a intenção de criar novas narrativas. Trata-se de uma investigação da narrativa de cada momento e da intimidade como elemento poético. A abordagem das questões presentes se dá através de uma montagem de fontes interdisciplinares, uma colagem de pensamentos de alguns teóricos, escritores, cineastas, poetas e filósofos e análises das práticas de alguns artistas contemporâneos e do processo da própria artista.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A partir de 2011, ocorreram e ainda ocorrerão eventos de grande repercussão para a cidade do Rio de Janeiro, como a conferência Rio+20 das Nações Unidas e eventos esportivos de grande importância mundial (Copa do Mundo de Futebol, Olimpíadas e Paraolimpíadas). Estes acontecimentos possibilitam a atração de recursos financeiros para a cidade, assim como a geração de empregos, melhorias de infraestrutura e valorização imobiliária, tanto territorial quanto predial. Ao optar por um imóvel residencial em determinado bairro, não se avalia apenas o imóvel, mas também as facilidades urbanas disponíveis na localidade. Neste contexto, foi possível definir uma interpretação qualitativa linguística inerente aos bairros da cidade do Rio de Janeiro, integrando-se três técnicas de Inteligência Computacional para a avaliação de benefícios: Lógica Fuzzy, Máquina de Vetores Suporte e Algoritmos Genéticos. A base de dados foi construída com informações da web e institutos governamentais, evidenciando o custo de imóveis residenciais, benefícios e fragilidades dos bairros da cidade. Implementou-se inicialmente a Lógica Fuzzy como um modelo não supervisionado de agrupamento através das Regras Elipsoidais pelo Princípio de Extensão com o uso da Distância de Mahalanobis, configurando-se de forma inferencial os grupos de designação linguística (Bom, Regular e Ruim) de acordo com doze características urbanas. A partir desta discriminação, foi tangível o uso da Máquina de Vetores Suporte integrado aos Algoritmos Genéticos como um método supervisionado, com o fim de buscar/selecionar o menor subconjunto das variáveis presentes no agrupamento que melhor classifique os bairros (Princípio da Parcimônia). A análise das taxas de erro possibilitou a escolha do melhor modelo de classificação com redução do espaço de variáveis, resultando em um subconjunto que contém informações sobre: IDH, quantidade de linhas de ônibus, instituições de ensino, valor m médio, espaços ao ar livre, locais de entretenimento e crimes. A modelagem que combinou as três técnicas de Inteligência Computacional hierarquizou os bairros do Rio de Janeiro com taxas de erros aceitáveis, colaborando na tomada de decisão para a compra e venda de imóveis residenciais. Quando se trata de transporte público na cidade em questão, foi possível perceber que a malha rodoviária ainda é a prioritária

Relevância:

20.00% 20.00%

Publicador:

Resumo:

[150] hojas : ilustraciones, fotografías.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El próximo mes de junio cerraré, al menos por el momento, esta sección y me gustaría despedirme con el relato de una historia muy especial. A lo largo de casi treinta años de profesión he ido guardado en un arcón, como los piratas de antaño, un montón de joyas encontradas en mis travesías matemáticas, logrando acumular un botín bastante suculento. Una de mis piezas favoritas es esta historia, una historia que ojalá me hubiesen contado cuando me enseñaron por primera vez los rudimentos del álgebra lineal. De hecho, si hoy tuviese que impartir clase de álgebra lineal en bachillerato o en un primer curso de cualquier carrera científica o técnica y se me permitiese hacerlo a mi manera, articularía mis clases en torno a esta historia. Sus distintos episodios, todos ellos verídicos, me han ido llegando a través de los años de la mano del matemático Mario Fernández Barberá, del escultor José Luis Alexanco y del poeta Ramón Mayrata.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Luis Balbuena entrevista a Eusebio Huélamo con motivo de la exposición «Maquinas de calcular» instalada en el casino de la Exposición de Sevilla durante la celebración del lCME-8, formando parte de las exposiciones organizadas por la Federación.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A montagem de circuitos eletrónicos é um processo extremamente complexo, e como tal muito difícil de controlar. Ao longo do processo produtivo, é colocada solda no PCB (printed circuit board), seguidamente são colocados os componentes eletrónicos que serão depois soldados através de um sistema de convecção, sendo por fim inspecionados todos os componentes, com o intuito de detetar eventuais falhas no circuito. Esta inspeção é efetuada por uma máquina designada por AOI (automatic optical inspection), que através da captura de várias imagens do PCB, analisa cada uma, utilizando algoritmos de processamento de imagem como forma de verificar a presença, colocação e soldadura de todos os componentes. Um dos grandes problemas na classificação dos defeitos relaciona-se com a quantidade de defeitos mal classificados que passam para os processos seguintes, por análise errada por parte dos operadores. Assim, apenas com uma formação adequada, realizada continuamente, é possível garantir uma menor taxa de falhas por parte dos operadores e consequentemente um aumento na qualidade dos produtos. Através da implementação da metodologia Gage R&R para atributos, que é parte integrante da estratégia “six sigma” foi possível analisar a aptidão dos operadores, com base na repetição aleatória de várias imagens. Foi desenvolvido um software que implementa esta metodologia na formação dos operadores das máquinas AOI, de forma a verificar a sua aptidão, tendo como objetivo a melhoria do seu desempenho futuro, através da medição e quantificação das dificuldades de cada pessoa. Com esta nova sistemática foi mais fácil entender a necessidade de formação de cada operador, pois com a constante evolução dos componentes eletrónicos e com o surgimento de novos componentes, estão implícitas novas dificuldades para os operadores neste tipo de tarefa. Foi também possível reduzir o número de defeitos mal classificados de forma significativa, através da aposta na formação com o auxílio do software desenvolvido.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica na Área de Manutenção e Produção

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica Perfil Manutenção e Produção

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Engenharia Electrotécnica e de Computadores

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As centrais termoelétricas convencionais convertem apenas parte do combustível consumido na produção de energia elétrica, sendo que outra parte resulta em perdas sob a forma de calor. Neste sentido, surgiram as unidades de cogeração, ou Combined Heat and Power (CHP), que permitem reaproveitar a energia dissipada sob a forma de energia térmica e disponibilizá-la, em conjunto com a energia elétrica gerada, para consumo doméstico ou industrial, tornando-as mais eficientes que as unidades convencionais Os custos de produção de energia elétrica e de calor das unidades CHP são representados por uma função não-linear e apresentam uma região de operação admissível que pode ser convexa ou não-convexa, dependendo das caraterísticas de cada unidade. Por estas razões, a modelação de unidades CHP no âmbito do escalonamento de geradores elétricos (na literatura inglesa Unit Commitment Problem (UCP)) tem especial relevância para as empresas que possuem, também, este tipo de unidades. Estas empresas têm como objetivo definir, entre as unidades CHP e as unidades que apenas geram energia elétrica ou calor, quais devem ser ligadas e os respetivos níveis de produção para satisfazer a procura de energia elétrica e de calor a um custo mínimo. Neste documento são propostos dois modelos de programação inteira mista para o UCP com inclusão de unidades de cogeração: um modelo não-linear que inclui a função real de custo de produção das unidades CHP e um modelo que propõe uma linearização da referida função baseada na combinação convexa de um número pré-definido de pontos extremos. Em ambos os modelos a região de operação admissível não-convexa é modelada através da divisão desta àrea em duas àreas convexas distintas. Testes computacionais efetuados com ambos os modelos para várias instâncias permitiram verificar a eficiência do modelo linear proposto. Este modelo permitiu obter as soluções ótimas do modelo não-linear com tempos computationais significativamente menores. Para além disso, ambos os modelos foram testados com e sem a inclusão de restrições de tomada e deslastre de carga, permitindo concluir que este tipo de restrições aumenta a complexidade do problema sendo que o tempo computacional exigido para a resolução do mesmo cresce significativamente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A automatização dos processos industriais, onde os acionamentos eletromecânicos representam a sua principal componente, levou à necessidade destes equipamentos funcionarem de forma ininterrupta. No entanto, nenhum acionamento está isento da ocorrência de uma falha, ou de uma combinação de falhas simultâneas, resultando num deficiente funcionamento ou mesmo na sua paragem. Neste contexto, a máquina de indução hexafásica apresenta-se especialmente indicada, pelas vantagens que o aumento do número de fases possibilita, para sistemas que requerem uma elevada disponibilidade. O trabalho apresentado nesta dissertação tem como objetivo principal o estudo da deteção e diagnóstico de falhas num acionamento baseado em máquina de indução hexafásica. A metodologia adotada no trabalho baseia-se no desenvolvimento de um modelo matemático adequado à simulação e análise do funcionamento da máquina hexafásica, em modo normal e com falha, e no desenvolvimento de estratégias/métodos de deteção e diagnóstico de falhas, quer para a máquina de indução hexafásica quer para o respetivo inversor. Os métodos propostos são baseados na análise de padrões das correntes de fases. Deste trabalho resultou ainda a implementação de um protótipo laboratorial de acionamento hexafásico. Os resultados obtidos por simulação e provenientes dos ensaios experimentais permitem validar o modelo proposto para a máquina de indução hexafásica, em modo normal e com falha, assim como os métodos de deteção e diagnóstico de falhas propostos. É ainda analisada a capacidade de funcionamento do acionamento desenvolvido em modo de falha