128 resultados para Turing-Galaxis
Resumo:
In 1950, the English mathematician Alan Mathison Turing proposed the basis of what some authors consider the test that a machine must pass to establish that it can think. This test is basically a game; nevertheless, it has had great infl uence in the development of the theories of the mind performance. The game specifications and some of its repercussions in the conception of thinking, the consciousness and the human will, will be ramifications of the path that will take us through the beginning of the artificial intelligence, passing along some of its singular manifestations, to culminate in the posing of certain restrictions of its fundaments.
Resumo:
Resumen tomado de la publicación
Resumo:
La Teoría de la Computabilidad estudia los límites teóricos de los sistemas computacionales. Uno de sus objetivos centrales consiste en clasificar los problemas en computables e incomputables, donde llamamos computable a un problema si admite solución informática. Para desarrollar estos resultados el modelo abstracto de computador más utilizado históricamente es la Máquina de Turing. Los estudiantes de Ingeniería Informática pueden percibir cierta lejanía entre el modelo teórico y los computadores reales por lo que es más adecuado utilizar un modelo más cercano a la programación como son los programas-while. Los Programas-while permiten resolver los mismos problemas que las máquinas de Turing, pero en cambio son mucho más sencillos de utilizar, sobre todo para personas que tienen una experiencia previa en la informática real, pues toman la forma de lenguaje imperativo clásico. Este texto además utiliza los Programas-while aprovechando sus ventajas y reformulándolos de manera que la computación quede definida en términos de manipulación de símbolos arbitrarios, algo que está mucho más en concordancia con la realidad informática. Además de explicar en detalle qué son los programas while y cómo se utilizan, se justifica por qué no es necesario incorporar otras instrucciones o tipos de datos.
Resumo:
Konputagarritasun Teoriaren asmoa sistema konputazionalen muga teorikoak aztertzea da. Bere helburu nagusia problemak konputagarri eta konputaezinen artean bereiztea da, problema konputagarria ebazpide informatikoa onartzen duenari deitzen diogula kontuan hartuta. Emaitza horiek garatzeko konputagailu eredu abstraktu erabiliena, historikoki, Turing-en Makina izan da. Ingeniaritza Informatikoko ikasleek eredu abstraktuaren eta konputagailu errealen artean distantzia dagoela nabari dezakete, horregatik programaziotik hurbilago dagoen eredu bat erabiltzea egokiagoa da, while programak hain zuzen ere. While programekin Turingen makinekin ebazten diren problema berak ebazten dira. Aldiz, while programak erabiltzen askoz errazagoak dira, batez ere aurretik informatika errealean esperientzia duten pertsonentzat, lengoaia agintzaile klasikoen programen itxura hartzen baitute. Testu honek while programak erabiltzen ditu, behar denean hauek birformulatuz eta beraien abantailak aprobetxatuz, konputazioa sinbolo arbitrarioen manipulazioaren baitan definituta gera dadin. Horrela, errealitate informatikotik askoz hurbilagoa egongo da. While programak zer diren eta nola erabiltzen diren zehaztasunez azaltzen da, eta gainera, beste agindu edo datu-mota batzuk gehitzea zergatik ez den beharrezkoa justifikatzen da.
Resumo:
Los supuestos fundamentales de la Teoría de la Computabilidad se establecieron antes de la aparición de los primeros ordenadores (a finales de los años 40), supuestos que muchos años de vertiginoso cambio no han conseguido alterar. Alan Mathison Turing demostró ya entonces que ningún ordenador, por muy potente que lo imaginemos, podría resolver algunas cuestiones. Estos problemas para los que no existe ningún algoritmo posible, los incomputables, no son excepcionales y hay un gran número de ellos entre los problemas que se plantean en torno al comportamiento de los programas. El problema de parada, es sin duda el miembro más conocido de esta familia: no existe un algoritmo para decidir con carácter general si un programa ciclará o no al recibir unos datos de entrada concretos. Para demostrar la incomputabilidad de un problema necesitamos un argumento lógico que certifique la inexistencia de algoritmo, o lo que es lo mismo, que pruebe que ninguno de los algoritmos existentes es capaz de resolver dicho problema. Tal argumento de carácter universal no suele ser sencillo de establecer, y normalmente suele estar relacionado con una demostración por reducción al absurdo. Existen distintas técnicas para lograr este objetivo. La técnica de diagonalización es la más básica de ellas, y resulta bastante conocida al no tratarse de una herramienta específica de la Informática Teórica. En este documento no se trata de explicar la técnica en sí, que se supone conocida, sino de ilustrarla con una colección de ejemplos de diferente grado de dificultad.
Resumo:
Konputagarritasunaren Teoriaren oinarriak lehenengo ordenadoreak azaldu aurretik (40. hamarkadaren bukaera aldera) ezarri ziren, eta ziztu biziko eta etenik gabeko eraldaketek aldatzea lortu ez duten oinarriak dira. Alan Mathison Turing-ek jadanik garai hartan frogatu zuen, ahalik eta potentzia handienekoa imajinatuta ere, inolako ordenadorek ebatzi ezingo zituen zenbait gai edo arazo bazeudela. Balizko algoritmorik ez duten problema horiek, konputaezinak deitzen ditugunak, ez dira salbuespenak eta adibide ugari aurki dezakegu. Programen portaeraren inguruan planteatzen diren problemen artean, asko konputaezinak dira. Familia horretako kide ezagunena, zalantzarik gabe, geratze problema da: sarrerako datu zehatz batzuk hartzerakoan, programa bat begizta infinituan geratuko ote den era orokorrean erabakitzeko algoritmorik ez dago. Problema baten konputaezintasuna frogatzeko, hau ebatziko duen algoritmo zehatz bat existitzen ez dela ziurtatuko duen argumentu logikoa behar dugu, edo beste era batera esanda, existitzen diren algoritmoak problema hori ebazteko gai izango ez direla egiaztatuko duen argumentua. Izaera unibertsaleko argumentu hori ezartzea ez da batere erraza izaten, eta normalean, absurduraino eramandako frogapen batekin erlazionatuta egon ohi da. Helburu hori lortzeko zenbait teknika daude. Diagonalizazioaren teknika horien artean oinarrizkoena da, eta nahiko ezaguna, ez baita Informatika Teorikoaren tresna espezifikoa. Dokumentu honen helburua ez da teknika bera azaldu edo deskribatzea, ezaguntzat hartzen baita, zailtasun maila desberdineko hainbat adibideren bitartez argitzea baizik.
Resumo:
La Teoría de la Computabilidad es una disciplina encuadrada en la Informática Teórica que tiene como objetivo establecer los límites lógicos que presentan los sistemas informáticos a la hora de resolver problemas mediante el diseño de algoritmos. Frente a las disciplinas y técnicas que día a día amplían el campo de aplicabilidad práctica de los computadores, esta teoría establece una serie de barreras insalvables por ninguna tecnología digital de procesamiento de la información. Los métodos propios de la Teoría de la Computabilidad pueden ser extraordinariamente complejos, sin embargo, existe un núcleo de resultados fundamentales que son abordables mediante técnicas más asequibles, y que tienen la virtud de reflejar razonablemente el concepto central de indecidibilidad computacional. Este informe incluye una descripción de los conceptos y técnicas que configuran ese núcleo básico de la Teoría. Su propósito es dar cuenta de la primera batería de resultados relacionados con la incomputabilidad de algunos problemas conocidos y relevantes en Informática. Los resultados se presentan utilizando como estándar de programación los programas-while, incluyéndose una explicación detallada y sistemática de la técnica de Diagonalización, además de resultados tan importantes como la tesis de Church-Turing, la función universal o el problema de parada.
Resumo:
Comentarios a Jaime Rodríguez, La revolución política durante la época de la Independencia. El Reino de Quito, 1808-1822, Quito, Universidad Andina Simón Bolívar (UASB-E)/Corporación Editora Nacional (CEN), 2006.
Resumo:
La presente investigación analiza el diálogo que se estableció entre distintos grupos de mujeres: religiosas, laicas e indígenas con la Teología de la Liberación y la influencia que ejerció Monseñor Leonidas Proaño en el compromiso pastoral y socio-político que asumieron las mujeres en Riobamba y Quito Sur durante las décadas de 1970 y 1980. La confluencia entre las mujeres y la Teología de la Liberación ocurre desde los inicios de la década del 1970. A ellas se las encuentra en los distintos espacios de acción pastoral que se lleva adelante en la Diócesis de Riobamba como en las comunidades religiosas insertas, comunidades eclesiales de base, equipos de pastoral, campañas de alfabetización, grupos de cantoras y aportes a la reflexión teológica. En la parroquia Quito sur la vinculación de las mujeres con la pastoral liberadora se refleja en las memorias a partir de la década de 1980. A través de la memoria y los testimonios de las mujeres que fueron partícipes de la pastoral liberadora, se reconstruye esta historia de aportes a los procesos históricos que realizan las mujeres desde la Teología de la Liberación y la incidencia que ésta ejerce en el empoderamiento y construcción de nuevas identidades. Desde las comunidades de base y a través de la metodología del “ver, juzgar y actuar”, las mujeres realizaron un cuestionamiento a las desigualdades sociales y una crítica a la propia Teología de la Liberación que asume los problemas de exclusión social, pero deja a un lado la exclusión de género. La incursión de las mujeres en los espacios de compromiso socio-político y pastoral supuso procesos permanentes de deconstrucción y reelaboración de su identidad, en los que dan cuenta de tensiones entre la invisibilización y desvalorización de sus experiencias.
Resumo:
El artículo discute el papel de las narrativas jesuíticas alemanas en la construcción de una conciencia-mundo en el contexto del orden colonial durante la segunda mitad del siglo XVIII. Para ello aborda las prácticas de significación y representación por parte de editores, autores y lectores de textos misioneros, así como la formulación de discursos identitarios en la confluencia de los conceptos de nación, imperio e imaginarios de lo global.
Resumo:
Las mujeres presas en el Hospicio de Quito durante los primeros treinta años de existencia constituyen el objeto de estudio del presente trabajo. A través de este sector circunscrito de la plebe quiteña se identifican algunas características sobre la forma en que “desde arriba” se proyectan las políticas y los mecanismos de control y algunas agencias que “desde abajo” se activan frente a la situación de disciplinamiento en la ciudad. Para abordar estas dos perspectivas se recurre a documentación oficial y a la búsqueda del “deber ser” institucional, al mismo tiempo que se procura recuperar la voz de los sectores subalternos, particularmente de las mujeres. El trabajo se asienta por lo tanto, en buena medida, en aquella documentación primaria que permite escuchar algunas de las preocupaciones de las mujeres relacionadas con sus experiencias. Específicamente se detectan algunas prácticas que activan frente a las injusticias que perciben y su reacción frente al incumplimiento de los objetivos de la institución definidos en el discurso ilustrado que justificaron su creación. Ambos temas traducen la percepción que tienen los sectores subalternos respecto a su rol y al del Hospicio.
Resumo:
La presente investigación indaga sobre uno de los acontecimientos más relevantes de la década de los 30 del siglo pasado, como es la Huelga de marzo del 39. Dicho acontecimiento se dio en una coyuntura política compleja, marcada por el regreso al poder de la burguesía liberal, representada en el gobierno de Aurelio Mosquera Narváez, que se caracterizó por su beligerancia a los sectores sociales y su persecución a los dirigentes de izquierda. Una de sus medidas fue la reorganización de las universidades mediante la promulgación de una disposición transitoria a la Ley de Elecciones que dejaba vacante los puestos públicos de periodo fijo. Esta disposición puso en debate uno de los derechos propios de la Universidad como es la autonomía universitaria, consignada por primera vez en el año de 1925. Como consecuencia de esta disposición transitoria, las cátedras universitarias quedaron vacantes, el Ministerio de Educación procedió a nombrar nuevos docentes, excluyendo de estos nombramientos o a profesores de militancia socialista. Este hecho fue interpretado por los estudiantes como una violación a la autonomía del centro de estudio y provocó que el 16 de marzo el Consejo Universitario deje de funcionar y los estudiantes se tomen las instalaciones de la Universidad y declaren la huelga. Frente a estos acontecimientos, otros sectores sociales como los maestros, obreros y textiles, eléctricos y transportistas mostraron su solidaridad y procedieron a plantear sus propias reivindicaciones, declarando una huelga general los días 21 y 22 de marzo y formando el autodenominado Frente de Estudiantes-Maestros-Trabajadores. El resultado final fue una profunda agitación social en las calles, la que obligó al Estado a utilizar su fuerza coercitiva y a declarar ilegal lo actuado por los sindicatos. Este hecho tuvo profundas repercusiones en los dirigentes gremiales, en la firma de contratos colectivos y en la creación de una alternativa educacional que fue la Universidad libre.
Resumo:
From the beginning, the world of game-playing by machine has been fortunate in attracting contributions from the leading names of computer science. Charles Babbage, Konrad Zuse, Claude Shannon, Alan Turing, John von Neumann, John McCarthy, Alan Newell, Herb Simon and Ken Thompson all come to mind, and each reader will wish to add to this list. Recently, the Journal has saluted both Claude Shannon and Herb Simon. Ken’s retirement from Lucent Technologies’ Bell Labs to the start-up Entrisphere is also a good moment for reflection.
Resumo:
It is argued that the truth status of emergent properties of complex adaptive systems models should be based on an epistemology of proof by constructive verification and therefore on the ontological axioms of a non-realist logical system such as constructivism or intuitionism. ‘Emergent’ properties of complex adaptive systems (CAS) models create particular epistemological and ontological challenges. These challenges bear directly on current debates in the philosophy of mathematics and in theoretical computer science. CAS research, with its emphasis on computer simulation, is heavily reliant on models which explore the entailments of Formal Axiomatic Systems (FAS). The incompleteness results of Gödel, the incomputability results of Turing, and the Algorithmic Information Theory results of Chaitin, undermine a realist (platonic) truth model of emergent properties. These same findings support the hegemony of epistemology over ontology and point to alternative truth models such as intuitionism, constructivism and quasi-empiricism.
Resumo:
The perspex machine arose from the unification of projective geometry with the Turing machine. It uses a total arithmetic, called transreal arithmetic, that contains real arithmetic and allows division by zero. Transreal arithmetic is redefined here. The new arithmetic has both a positive and a negative infinity which lie at the extremes of the number line, and a number nullity that lies off the number line. We prove that nullity, 0/0, is a number. Hence a number may have one of four signs: negative, zero, positive, or nullity. It is, therefore, impossible to encode the sign of a number in one bit, as floating-, point arithmetic attempts to do, resulting in the difficulty of having both positive and negative zeros and NaNs. Transrational arithmetic is consistent with Cantor arithmetic. In an extension to real arithmetic, the product of zero, an infinity, or nullity with its reciprocal is nullity, not unity. This avoids the usual contradictions that follow from allowing division by zero. Transreal arithmetic has a fixed algebraic structure and does not admit options as IEEE, floating-point arithmetic does. Most significantly, nullity has a simple semantics that is related to zero. Zero means "no value" and nullity means "no information." We argue that nullity is as useful to a manufactured computer as zero is to a human computer. The perspex machine is intended to offer one solution to the mind-body problem by showing how the computable aspects of mind and. perhaps, the whole of mind relates to the geometrical aspects of body and, perhaps, the whole of body. We review some of Turing's writings and show that he held the view that his machine has spatial properties. In particular, that it has the property of being a 7D lattice of compact spaces. Thus, we read Turing as believing that his machine relates computation to geometrical bodies. We simplify the perspex machine by substituting an augmented Euclidean geometry for projective geometry. This leads to a general-linear perspex-machine which is very much easier to pro-ram than the original perspex-machine. We then show how to map the whole of perspex space into a unit cube. This allows us to construct a fractal of perspex machines with the cardinality of a real-numbered line or space. This fractal is the universal perspex machine. It can solve, in unit time, the halting problem for itself and for all perspex machines instantiated in real-numbered space, including all Turing machines. We cite an experiment that has been proposed to test the physical reality of the perspex machine's model of time, but we make no claim that the physical universe works this way or that it has the cardinality of the perspex machine. We leave it that the perspex machine provides an upper bound on the computational properties of physical things, including manufactured computers and biological organisms, that have a cardinality no greater than the real-number line.