1000 resultados para Máquinas : Turing : Persistente : Paralela


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nos últimos 70 anos têm sido apresentadas várias propostas para caracteriza ção da noção intuitiva de computabilidade. O modelo de Computação mais conhecido para expressar a noção intuitiva de algoritmo é a Máquina de Turing. Esse trabalho apresenta máquinas abstratas que representam diferentes formas de comportamento computacional, sendo possível abordar a diversidade entre a Teoria da Computação Clássica (Máquina de Turing) e a Teoria da Computa- ção Interativa (Máquina de Turing Persistente). Com a evolução dos sistemas de computação, surgiu a necessidade de estender a de nição de Máquina de Turing para tratar uma diversidade de novas situações, esses problemas conduziram a uma mudança de paradigma. Neste contexto foi desenvolvido a Máquina de Turing Persistente, que é capaz de fundamentar a Teoria da Computação Interativa. Máquinas de Turing Persistentes (PeTM) são modelos que expressam comportamento interativo, esse modelo é uma extensão da Máquina de Turing. O presente trabalho tem como objetivo explorar paralelismo na Máquina de Turing Persistente, através da formalização de uma extensão paralela da PeTM e o estudo dos efeitos sobre essa extensão, variando o número de tas de trabalho. Contribui- ções desse trabalho incluem a de nição de uma máquina de Turing Persistente Paralela para modelar computação interativa e uma exposição de conceitos fundamentais e necessários para o entendimento desse novo paradigma. Os métodos e conceitos apresentados para formalização da computação na Máquina de Turing Persistente Paralela desenvolvidos nessa dissertação, podem servir como base para uma melhor compreensão da Teoria da Computação Interativa e da forma como o paralelismo pode ser especi cado em modelos teóricos.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Este artigo apresenta um breve resumo da vida de Alan Turing, um dos fundadores da Teoria da Computação, uma descrição sucinta da sua máquina e do seu protagonismo associado à decifração do código usado pelos alemães durante a II Guerra Mundial. Aponta ainda o preconceito relativo à homossexualidade de Alan Turing e os obstáculos que ele teve de contornar numa sociedade que criminalizava qualquer atividade homossexual.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Se presenta un programa simulador escrito para ayudar a los estudiantes a comprender el concepto de máquina de Turing y a probar y corregir sus diseños de algoritmos con esta máquina. En una primera parte se describe el simulador desde el punto de vista de su uso, en el que cabe resaltar la representación del esquema funcional en la forma de quíntuplas, junto a una serie de opciones de explotación. La segunda y última parte se dedica a las características del programa, ocupación de memoria, representación y manejo de estados internos, simulación de la cinta y otras técnicas propias del programa o del miniordenador en el que aquel ha sido instrumentado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nos últimos anos começaram a ser vulgares os computadores dotados de multiprocessadores e multi-cores. De modo a aproveitar eficientemente as novas características desse hardware começaram a surgir ferramentas para facilitar o desenvolvimento de software paralelo, através de linguagens e frameworks, adaptadas a diferentes linguagens. Com a grande difusão de redes de alta velocidade, tal como Gigabit Ethernet e a última geração de redes Wi-Fi, abre-se a oportunidade de, além de paralelizar o processamento entre processadores e cores, poder em simultâneo paralelizá-lo entre máquinas diferentes. Ao modelo que permite paralelizar processamento localmente e em simultâneo distribuí-lo para máquinas que também têm capacidade de o paralelizar, chamou-se “modelo paralelo distribuído”. Nesta dissertação foram analisadas técnicas e ferramentas utilizadas para fazer programação paralela e o trabalho que está feito dentro da área de programação paralela e distribuída. Tendo estes dois factores em consideração foi proposta uma framework que tenta aplicar a simplicidade da programação paralela ao conceito paralelo distribuído. A proposta baseia-se na disponibilização de uma framework em Java com uma interface de programação simples, de fácil aprendizagem e legibilidade que, de forma transparente, é capaz de paralelizar e distribuir o processamento. Apesar de simples, existiu um esforço para a tornar configurável de forma a adaptar-se ao máximo de situações possível. Nesta dissertação serão exploradas especialmente as questões relativas à execução e distribuição de trabalho, e a forma como o código é enviado de forma automática pela rede, para outros nós cooperantes, evitando assim a instalação manual das aplicações em todos os nós da rede. Para confirmar a validade deste conceito e das ideias defendidas nesta dissertação foi implementada esta framework à qual se chamou DPF4j (Distributed Parallel Framework for JAVA) e foram feitos testes e retiradas métricas para verificar a existência de ganhos de performance em relação às soluções já existentes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Revisión del problema de la filosofía de la Inteligencia Artificial a la vista del Equilibrio refractivo. La revisión del problema se lleva a cabo para mostrar como "¿pueden pensar las máquinas?" sólo se ha evaluado en los terminos humanos. El equilibrio refractivo se plantea como una herramienta para definir conceptos de tal modo que la experiencia y los preceptos se encuentren en equilibrio, para con él construir una definición de pensar que no esté limitada exclusivamente a "pensar tal y como lo hacen los humanos".

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A presente Dissertação propõe uma biblioteca de comunicação de alto desempenho, baseada em troca de mensagens, especificamente projetada para explorar eficientemente as potencialidades da tecnologia SCI (Scalable Coherent Interface). No âmago da referida biblioteca, a qual se denominou DECK/SCI, acham-se três protocolos de comunicação distintos: um protocolo de baixa latência e mínimo overhead, especializado na troca de mensagens pequenas; um protocolo de propósito geral; e um protocolo de comunicação que emprega uma técnica de zero-copy, também idealizada neste Trabalho, no intuito de elevar a máxima largura de banda alcançável durante a transmissão de mensagens grandes. As pesquisas desenvolvidas no decurso da Dissertação que se lhe apresenta têm por mister proporcionar um ambiente para o desenvolvimento de aplicações paralelas, que demandam alto desempenho computacional, em clusters que se utilizam da tecnologia SCI como rede de comunicação. A grande motivação para os esforços envidados reside na consolidação dos clusters como arquiteturas, a um só tempo, tecnologicamente comparáveis às máquinas paralelas dedicadas, e economicamente viáveis. A interface de programação exportada pelo DECK/SCI aos usuários abarca o mesmo conjunto de primitivas da biblioteca DECK (Distributed Execution Communication Kernel), concebida originalmente com vistas à consecução de alto desempenho sobre a tecnologia Myrinet. Os resultados auferidos com o uso do DECK/SCI revelam a eficiência dos mecanismos projetados, e a utilização profícua das características de alto desempenho intrínsecas da rede SCI, haja visto que se obteve uma performance muito próxima dos limites tecnológicos impostos pela arquitetura subjacente. Outrossim, a execução de uma clássica aplicação paralela, para fins de validação, testemunha que as primitivas e abstrações fornecidas pelo DECK/SCI mantêm estritamente a mesma semântica da interface de programação do original DECK.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El desarrollo histórico de la Psicología como disciplina científica puede ser interpretado, siguiendo a Manuel de Vega (1998), a la luz de los aportes epistemológicos de T. Kuhn. Este físico y filósofo sostiene que la historia de las disciplinas científicas está compuesta por diversos períodos, a saber, el período de ciencia pre-paradigmática, de ciencia normal, crisis y nueva ciencia normal. Kuhn presupone la existencia de un paradigma, el cual durante el período de ciencia normal dominará y determinará, entre otras cosas, cuáles son los problemas, las técnicas y soluciones que serán consideradas como válidas dentro de ese período. Diversos autores han sostenido que el conductismo fue el paradigma dominante en psicología durante la primera mitad del siglo XX pero, tras su crisis, hoy en día el nuevo paradigma dominante es el cognitivo. Este nuevo paradigma se basa en la analogía de la mente como un ordenador y presenta dos versiones. Si se interpreta la analogía en un sentido débil, la similitud funcional entre la mente y el ordenador no pierde de vista la peculiaridad del funcionamiento de la mente humana; en este sentido, debido a que la perspectiva psicológica continíoa presente en las investigaciones y que las mismas son consideradas como un instrumento para el estudio de la mente, la versión débil ha dado lugar a los desarrollos de la Psicología Cognitiva. En cambio, quienes han interpretado la analogía en un sentido fuerte dieron lugar a los desarrollos de la Ciencia Cognitiva (i). Su tarea primordial consiste en la construcción de Sistemas de Inteligencia Artificial que, en tanto simulan los comportamientos inteligentes humanos, tienen estados cognitivos. Dado que la ciencia cognitiva ha sido desarrollada en su mayoría por programadores, este tipo de investigación parte del supuesto que no es necesario saber cómo funciona el cerebro para aportar información relevante sobre el funcionamiento del sistema cognitivo humano (Searle, 1981, pág. 467). Uno de los problemas clásicos que se ha planteado dentro del paradigma cognitivo se centra en la pregunta de si es posible que las máquinas piensen. Varios científicos y filósofos han dado diversas respuestas pero lo cierto es que, a pesar de esta diversidad, a todos les resulta prácticamente inevitable hacer algíon tipo de referencia a la propuesta de Turing. Este pensador ha formulado un test para las máquinas que, de superarlo, sería preciso atribuirles la capacidad de pensar. En este trabajo, en primera instancia, caracterizo cuál es la propuesta de Turing que ha tomado el programa de Inteligencia Artificial (IA), en sentido fuerte, para determinar si las máquinas pueden pensar. Luego desarrollo dos objeciones clásicas que consisten en formular cuáles son las imposibilidades de las máquinas y el problema del marco, y propongo la existencia de un núcleo común entre ambas. En segunda instancia, con el objetivo de complejizar estas objeciones, tomo en consideración aportes provenientes de las teorías de las emociones contemporáneas, en particular considero aportes de las neurociencias cognitivas, y defiendo la tesis que afirma que las emociones son importantes para el desarrollo de la inteligencia humana. Si mi argumentación en esta segunda parte es correcta, entonces habré mostrado que la falencia del test de Turing consiste en suponer un concepto vetusto de inteligencia humana

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El desarrollo histórico de la Psicología como disciplina científica puede ser interpretado, siguiendo a Manuel de Vega (1998), a la luz de los aportes epistemológicos de T. Kuhn. Este físico y filósofo sostiene que la historia de las disciplinas científicas está compuesta por diversos períodos, a saber, el período de ciencia pre-paradigmática, de ciencia normal, crisis y nueva ciencia normal. Kuhn presupone la existencia de un paradigma, el cual durante el período de ciencia normal dominará y determinará, entre otras cosas, cuáles son los problemas, las técnicas y soluciones que serán consideradas como válidas dentro de ese período. Diversos autores han sostenido que el conductismo fue el paradigma dominante en psicología durante la primera mitad del siglo XX pero, tras su crisis, hoy en día el nuevo paradigma dominante es el cognitivo. Este nuevo paradigma se basa en la analogía de la mente como un ordenador y presenta dos versiones. Si se interpreta la analogía en un sentido débil, la similitud funcional entre la mente y el ordenador no pierde de vista la peculiaridad del funcionamiento de la mente humana; en este sentido, debido a que la perspectiva psicológica continíoa presente en las investigaciones y que las mismas son consideradas como un instrumento para el estudio de la mente, la versión débil ha dado lugar a los desarrollos de la Psicología Cognitiva. En cambio, quienes han interpretado la analogía en un sentido fuerte dieron lugar a los desarrollos de la Ciencia Cognitiva (i). Su tarea primordial consiste en la construcción de Sistemas de Inteligencia Artificial que, en tanto simulan los comportamientos inteligentes humanos, tienen estados cognitivos. Dado que la ciencia cognitiva ha sido desarrollada en su mayoría por programadores, este tipo de investigación parte del supuesto que no es necesario saber cómo funciona el cerebro para aportar información relevante sobre el funcionamiento del sistema cognitivo humano (Searle, 1981, pág. 467). Uno de los problemas clásicos que se ha planteado dentro del paradigma cognitivo se centra en la pregunta de si es posible que las máquinas piensen. Varios científicos y filósofos han dado diversas respuestas pero lo cierto es que, a pesar de esta diversidad, a todos les resulta prácticamente inevitable hacer algíon tipo de referencia a la propuesta de Turing. Este pensador ha formulado un test para las máquinas que, de superarlo, sería preciso atribuirles la capacidad de pensar. En este trabajo, en primera instancia, caracterizo cuál es la propuesta de Turing que ha tomado el programa de Inteligencia Artificial (IA), en sentido fuerte, para determinar si las máquinas pueden pensar. Luego desarrollo dos objeciones clásicas que consisten en formular cuáles son las imposibilidades de las máquinas y el problema del marco, y propongo la existencia de un núcleo común entre ambas. En segunda instancia, con el objetivo de complejizar estas objeciones, tomo en consideración aportes provenientes de las teorías de las emociones contemporáneas, en particular considero aportes de las neurociencias cognitivas, y defiendo la tesis que afirma que las emociones son importantes para el desarrollo de la inteligencia humana. Si mi argumentación en esta segunda parte es correcta, entonces habré mostrado que la falencia del test de Turing consiste en suponer un concepto vetusto de inteligencia humana

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El desarrollo histórico de la Psicología como disciplina científica puede ser interpretado, siguiendo a Manuel de Vega (1998), a la luz de los aportes epistemológicos de T. Kuhn. Este físico y filósofo sostiene que la historia de las disciplinas científicas está compuesta por diversos períodos, a saber, el período de ciencia pre-paradigmática, de ciencia normal, crisis y nueva ciencia normal. Kuhn presupone la existencia de un paradigma, el cual durante el período de ciencia normal dominará y determinará, entre otras cosas, cuáles son los problemas, las técnicas y soluciones que serán consideradas como válidas dentro de ese período. Diversos autores han sostenido que el conductismo fue el paradigma dominante en psicología durante la primera mitad del siglo XX pero, tras su crisis, hoy en día el nuevo paradigma dominante es el cognitivo. Este nuevo paradigma se basa en la analogía de la mente como un ordenador y presenta dos versiones. Si se interpreta la analogía en un sentido débil, la similitud funcional entre la mente y el ordenador no pierde de vista la peculiaridad del funcionamiento de la mente humana; en este sentido, debido a que la perspectiva psicológica continíoa presente en las investigaciones y que las mismas son consideradas como un instrumento para el estudio de la mente, la versión débil ha dado lugar a los desarrollos de la Psicología Cognitiva. En cambio, quienes han interpretado la analogía en un sentido fuerte dieron lugar a los desarrollos de la Ciencia Cognitiva (i). Su tarea primordial consiste en la construcción de Sistemas de Inteligencia Artificial que, en tanto simulan los comportamientos inteligentes humanos, tienen estados cognitivos. Dado que la ciencia cognitiva ha sido desarrollada en su mayoría por programadores, este tipo de investigación parte del supuesto que no es necesario saber cómo funciona el cerebro para aportar información relevante sobre el funcionamiento del sistema cognitivo humano (Searle, 1981, pág. 467). Uno de los problemas clásicos que se ha planteado dentro del paradigma cognitivo se centra en la pregunta de si es posible que las máquinas piensen. Varios científicos y filósofos han dado diversas respuestas pero lo cierto es que, a pesar de esta diversidad, a todos les resulta prácticamente inevitable hacer algíon tipo de referencia a la propuesta de Turing. Este pensador ha formulado un test para las máquinas que, de superarlo, sería preciso atribuirles la capacidad de pensar. En este trabajo, en primera instancia, caracterizo cuál es la propuesta de Turing que ha tomado el programa de Inteligencia Artificial (IA), en sentido fuerte, para determinar si las máquinas pueden pensar. Luego desarrollo dos objeciones clásicas que consisten en formular cuáles son las imposibilidades de las máquinas y el problema del marco, y propongo la existencia de un núcleo común entre ambas. En segunda instancia, con el objetivo de complejizar estas objeciones, tomo en consideración aportes provenientes de las teorías de las emociones contemporáneas, en particular considero aportes de las neurociencias cognitivas, y defiendo la tesis que afirma que las emociones son importantes para el desarrollo de la inteligencia humana. Si mi argumentación en esta segunda parte es correcta, entonces habré mostrado que la falencia del test de Turing consiste en suponer un concepto vetusto de inteligencia humana

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Prometeo, inventor de la técnica, ladrón de la semilla del fuego, fue castigado por su soberbia. Este poderoso símbolo forma parte de nuestro imaginario cultural. La técnica aparece con frecuencia dotada de poderes demoníacos, contranaturales, antihumanos. Hay un persistente enfrentamiento entre Humanidades y Técnica,que opone la jugosa poética de lo natural a la áspera dureza de la máquina. Tal conflicto me parece sectario y miope por ambas partes. Sospecho que el humanista se siente acomplejado y el técnico omnipotente, con lo que uno y otro se obnubilan sin remedio. La técnica es fuente de posibilidades, y debemos integrarla en el gran vuelo de la inteligencia creadora.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os mecanismos amplamente utilizados em aplicações industriais são de tipo serial, porém há algum tempo vem sendo desenvolvidos estudos sobre as vantagens que os mecanismos de arquitetura paralela oferecem em contraposição com os seriais. Rigidez, precisão, altas frequências naturais e velocidade são algumas características que os mecanismos paralelos atribuem a máquinas já consolidadas na indústria, destinadas principalmente nas operações de manipulação (pick and place). Nesse sentido, é relevante o estudo sobre a funcionalidade em outros tipos de operação como a usinagem e, particularmente o fresamento. Para isto, devem-se ainda explorar e desenvolver as capacidades dos mecanismos paralelos em relação à rigidez e à precisão nas operações mencionadas. Foi desenvolvido previamente o projeto e montagem do protótipo de uma máquina fresadora de arquitetura paralela. Também aracterizado pela redundância na atuação para o posicionamento da ferramenta. Com este intuito, pretende-se no trabalho atual, avaliar o erro estático de posicionamento da ferramenta por métodos experimentais, quantificar os deslocamentos, realizar um mapeamento experimental em diversas configurações dos membros. Por outro lado, pretende-se adaptar um modelo numérico simplificado que possa prever as deformações elásticas em diversas configurações, que contemple o efeito de juntas lineares flexíveis e que de alguma forma ajude a identificar as principais fontes de erro. Para tal, foram elaboradas rotinas de programação que através da cinemática inversa e o uso do método dos elementos finitos tentem prever o que de fato acontece nos experimentos. Foi proposta também uma implementação alternativa para o controle do mecanismo através de um software CNC e a conversão de coordenadas cartesianas em coordenadas dos atuadores, isto ajudaria na geração do código G. Finalmente, foram elaboradas algumas trajetórias que tentam avaliar a exatidão e repetitividade do mecanismo além de descrever outras trajetórias livres.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This study proposes a solution responsible for scheduling data processing with variable demand in cloud environments. The system built check specific variables to the business context of a company incubated at Digital Metropole Institute of UFRN. Such a system generates an identification strategy machinery designs available in a cloud environment, focusing on processing performance, using data load balancing strategies and activities of parallelism in the software execution flow. The goal is to meet the seasonal demand within a standard time limit set by the company, controlling operating costs by using cloud services in the IaaS layer.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O uso de programas computacionais no setor agrícola permite atingir objetivos específicos na área. Dentre esses, um dos mais complexos é a seleção adequada de máquinas e implementos agrícolas visando à otimização de operações agrícolas, devido, principalmente, à grande variedade de equipamentos existentes no mercado e a gama de tarefas e situações de trabalho que estas são submetidas no campo. O objetivo deste trabalho foi desenvolver um programa computacional para calcular a potência requerida de máquinas e implementos agrícolas normalmente utilizados na condução de operações de campo, desde o preparo do solo até as operações de implantação de culturas. Desenvolvido em linguagem PHP, o programa computacional baseia-se na norma ASAE D497.4 - Agricultural Machinery Management Data como referência para desenvolvimento de cálculos. A partir do programa desenvolvido, tornou-se possível a execução de tarefas para cálculos de avaliação da demanda de potência de máquinas e implementos agrícolas de forma simplificada pela internet.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No atual modelo de agricultura, é indispensável que o produtor conheça a real disponibilidade de tempo para a execução das operações agrícolas ao longo do ciclo das culturas. Este é o primeiro passo para se planejar e se obter maior eficiência na execução dessas operações, que estão sujeitas às variações do clima. As variáveis meteorológicas de uma determinada região influenciam diretamente no número de dias disponíveis para trabalhar com máquinas agrícolas. O objetivo deste trabalho foi estimar as probabilidades de ocorrência de dias favoráveis para o trabalho mecanizado, utilizando-se informações meteorológicas do município de Santa Maria, RS, Brasil. As condições para se considerar o dia como favorável para o trabalho com máquinas foram a precipitação < 5 mm e o armazenamento de água no solo (ARM) entre 40 e 90% da capacidade de água disponível (CAD). O método da cadeia de Markov de primeira ordem foi utilizado para estimar as probabilidades condicionais de dias favoráveis ao trabalho com máquinas. Os resultados indicam que a metodologia aplicada para estimar as probabilidades de dias favoráveis ao uso de máquinas agrícolas foi viável, evidenciando as épocas mais apropriadas à execução de operações agrícolas mecanizadas no campo, para o município de Santa Maria, RS.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A montagem de circuitos eletrónicos é um processo extremamente complexo, e como tal muito difícil de controlar. Ao longo do processo produtivo, é colocada solda no PCB (printed circuit board), seguidamente são colocados os componentes eletrónicos que serão depois soldados através de um sistema de convecção, sendo por fim inspecionados todos os componentes, com o intuito de detetar eventuais falhas no circuito. Esta inspeção é efetuada por uma máquina designada por AOI (automatic optical inspection), que através da captura de várias imagens do PCB, analisa cada uma, utilizando algoritmos de processamento de imagem como forma de verificar a presença, colocação e soldadura de todos os componentes. Um dos grandes problemas na classificação dos defeitos relaciona-se com a quantidade de defeitos mal classificados que passam para os processos seguintes, por análise errada por parte dos operadores. Assim, apenas com uma formação adequada, realizada continuamente, é possível garantir uma menor taxa de falhas por parte dos operadores e consequentemente um aumento na qualidade dos produtos. Através da implementação da metodologia Gage R&R para atributos, que é parte integrante da estratégia “six sigma” foi possível analisar a aptidão dos operadores, com base na repetição aleatória de várias imagens. Foi desenvolvido um software que implementa esta metodologia na formação dos operadores das máquinas AOI, de forma a verificar a sua aptidão, tendo como objetivo a melhoria do seu desempenho futuro, através da medição e quantificação das dificuldades de cada pessoa. Com esta nova sistemática foi mais fácil entender a necessidade de formação de cada operador, pois com a constante evolução dos componentes eletrónicos e com o surgimento de novos componentes, estão implícitas novas dificuldades para os operadores neste tipo de tarefa. Foi também possível reduzir o número de defeitos mal classificados de forma significativa, através da aposta na formação com o auxílio do software desenvolvido.